O autorze Scott Mueller jest prezesem Mueller Technical Research, międzynarodowej firmy zajmującej się badaniem komputerów osobistych i szkoleniami. Od 1982 roku MTR specjalizuje się w dokumentacji i technicznych seminariach; klientami są firmy z listy Fortune 500, rządy Stanów Zjednoczonych i innych państw, główne firmy programowe i komputerowe, a także entuzjaści i przedsiębiorcy. Podczas swych licznych podróży przedstawiał swoje wykłady tysiącom specjalistów w Ameryce Północnej i Południowej, Kanadzie, Europie i Australii. Scott Mueller opracował i prowadził kursy komputerowe bazujące na każdym rodzaju sprzętu PC. Jest ekspertem w sprzęcie PC, systemach operacyjnych, technikach odzyskiwania danych i sieci lokalnych. Mueller ma w swoim dorobku, oprócz książki Rozbudowa i naprawa komputerów (Upgrading and Repairing PCs) sprzedanej w poprzednim wydaniu w ponad półtoramilionowym nakładzie, wiele popularnych książek, artykułów i materiałów szkoleniowych. Jest stałym współpracownikiem wydawanego przez Landmark International miesięcznika Troubleshooter. Jako znany na międzynarodowej arenie wykładowca_i niezaprzeczalny autorytet w dziedzinie szyfrowania informacji technicznej, Mueller rozwinął komputerowe kursy szkoleniowe we wszystkich dziedzinach, dotyczących zarówno problemów natury sprzętowej, jak i programowej. Specjalizuje się w sprawach sprzętowych, obejmujących rozbudowę, obsługę, diagnozowanie i naprawę komputera. Jest ekspertem w zakresie technik i strategii odzyskiwania danych, lokalnych sieci komputerowych i głównych aplikacji biznesowych. Ma też doświadczenie w dziedzinie oprogramowania systemowego: DOS, OS/2, Windows i Windows NT. O współautorze: Craig Zacker jest pisarzem i redaktorem. Pracował jako administrator sieci Novell NetWare i jako technik. Intensywnie pracował nad integracją systemu Windows NT do istniejących sieci wewnętrznych typu NetWare. Był zatrudniany jako autor opracowań technicznych oraz nadzorca systemów Web w systemach informacyjnych dużej firmy software'owej. Craig tworzył i przyczynił się do powstania wielu książek traktujących o systemach operacyjnych i sieciach oraz publikował artykuły w najlepszych czasopismach, włączając Windows NT Magazine, w którym jest współredaktorem.
Specjalne podziękowania należą się następującym współpracownikom: Bogue'owi Kevinowi Kloss, Steve'owi Schaferowi. Keithowi Underdahlowi.
Robertowi
Wstęp Witam w tym wydaniu książki Rozbudowa i naprawa komputerów PC. Książka ta jest przeznaczona dla tych, którzy chcą rozbudowywać, naprawiać, a także w miarę bezproblemowo wykorzystywać swojego PeCeta. Obejmuje wszystkie systemy, od najstarszych 8bitowych maszyn, po najnowsze 64-bitowe stacje robocze. Omówię najnowsze osiągnięcia sprzętowe, które sprawiają, że najnowocześniejsze komputery są łatwe w obsłudze, szybkie i wydajne, przedstawię procesory Intela oraz kompatybilne od Pentium i Pentium Pro aż po nowy Pentium II, opiszę także nowe pamięci, magistrale PCI, napędy CD-ROM i taśmowe, karty muzyczne, porty PC-Card oraz Cardbus do laptopów, twarde dyski IDE i SCSI, karty graficzne i monitory. Wszechstronny przegląd komputerów przedstawiony w tej książce cieszy się uznaniem od pierwszego wydania w 1988 roku. Ilość wydań tej książki na rynku amerykańskim (9) dowodzi, że jest to nie tylko najlepiej sprzedająca się pozycja tego typu, ale również najbardziej wyczerpujący i łatwy w użyciu podręcznik na temat najnowszych komputerów. Książka zawiera szczegółowy opis komputerów, różnic między nimi i sposobów konfigurowania. Poszczególne rozdziały dostarczają szczegółowych informacji o każdym składniku komputera, od procesora po klawiaturę i monitor. W książce przedstawimy konfiguracje nowoczesnych, wysokowydajnych komputerów; skupimy się na dostępnym sprzęcie i oprogramowaniu oraz określimy optymalną konfigurację w zależności od posiadanego komputera. Poniżej wymieniam główne składniki komputera, którymi zajmę się w dalszej części książki: * Pentium II, Pentium Pro, Pentium, 486 i wcześniejsze oraz ich „klony" - procesory firm AMD, Cyrix i innych producentów. * Najnowsze typy gniazd procesorów i kart rozszerzeń. * Nowe płyty główne, uwzględniając ATX oraz NLX. * Najnowsze Chipsety dla nowych rodzin procesorów. * Magistrale PCI (Peripheral Component Interconnect), AGP (Accelerated Graphics Port), VL-Bus (VESA Local Bus), EISA (Extended Industry Standard Architectu-re) i MCA (Micro Channel Architecture) oraz 100-megahercowe magistrale procesora. * Przerwania, kanały pamięci DMA (Direct Memory Access) oraz adresy portów wejścia/wyjścia. * Urządzenia plug and play. * Twarde dyski (także ElDE i SCSI, wraz z najnowszymi specyfikacjami, takimi jak ATA-3, ATA-4). * Napędy dyskietek (360 k, l .2 M, l .44 M i 2.88 M oraz takie jak Zip, LS-120, napędy taśmowe). * Nowe napędy DVD, CD-ROM i magnetooptyczne. * Moduły pamięci SIMM i DIMM oraz ECC RAM. * Nowe typy pamięci, jak Synchronous Pipeline Burst cache (Cache synchroniczny), EDO RAM, Burst EDO, Synchronous DRAM. RAMBUS. * Monitory SVGA o dużych przekątnych i szybkie karty graficzne. * Peryferia (napędy CD-ROM, karty muzyczne i streamery).
* Porty PC-Cards i Cardbus. * Drukarki laserowe i igłowe, ich obsługa i naprawa. * W jaki sposób części te są obsługiwane przez system operacyjny. W książce tej przedstawię metodę, która pomoże Ci radzić sobie z trudnościami przy rozbudowie i naprawie komputera. Omówię najczęściej występujące problemy związane m.in. z przerwaniami, kanałami pamięci DMA, portami wejścia/wyjścia, a także konflikty adresów pamięci. Przedstawię także problemy programowe, zaczynając od opisu, jak DOS i inne systemy operacyjne współpracują z komputerem przy jego uruchamianiu. Nauczysz się diagnozować sprzęt, system operacyjny i programy takie jak edytory tekstu i arkusze kalkulacyjne. Książka ta jest wynikiem moich wieloletnich doświadczeń przy przygotowywaniu wykładów o komputerach, systemach operacyjnych i odzyskiwaniu danych. Od 1982 roku osobiście nauczyłem (i dalej uczę) tysiące ludzi, jak diagnozować, rozbudowywać i naprawiać komputery oraz jak odzyskiwać dane. Jest ona końcowym wynikiem osobistych doświadczeń, a także doświadczeń zdobytych od innych. To, co początkowo było zwykłym skryptem, rozrosło się przez lata do rozmiarów podręcznika. Teraz i Ty możesz skorzystać z mojego wieloletniego doświadczenia.
Główne cele książki Chciałbym, aby moja książka była pomocą przy pracy z komputerem, jego rozbudowie, naprawie i aby pomogła ci zrozumieć jego działanie. Poruszymy wiele tematów, pomówimy m.in. o dyskietkach, twardym dysku, procesorze, koprocesorze, zasilaczu. Przedstawię problem właściwej dbałości o system, co pozwoli na wskazanie najbardziej podatnych na błędy podzespołów, a to z kolei pomoże nam znaleźć i zidentyfikować uszkodzone elementy. Poznasz procedury diagnostyczne umożliwiające określenie przyczyny problemu i sposób jego usunięcia. Rodzina mikrokomputerów szybko się rozwija, zarówno jeżeli chodzi o wydajność, jak i możliwości. Osiągi wzrastają z każdym nowym procesorem Pomogę Ci zrozumieć jego działanie. Książka omawia istotne różnice pomiędzy najczęściej spotykanymi magistralami: ISA, EISA, MCA PCI i VL-Bus. Najnowsze systemy używają specjalnych szyn lokalnych i kart rozszerzeń w celu uzyskania wysokiej wydajności takich urządzeń jak karty wideo czy twarde dyski. Opiszemy każdy z tych systemów, sposoby ich rozbudowywania i naprawiania. Ilość pamięci w nowoczesnych komputerach rośnie w postępie geometrycznym. Przedstawimy urządzenia masowej pamięci począwszy od dużych i szybkich dysków twardych aż po najnowsze urządzenia w tej dziedzinie. Dodatkowo, szczegółowo omówimy powiększanie ilości pamięci RAM w komputerze i wykrywanie usterek z tym związanych. Po przeczytaniu tej książki powinieneś mieć wystarczającą wiedzę, aby samodzielnie diagnozować i naprawiać swój komputer.
Dla kogo jest ta książka Napisana została z myślą o tych, którzy chcą zrozumieć, jak działa ich PeCet. Każdy rozdział zawiera opis powszechnych i mniej powszechnych problemów, przyczyn ich powstawania oraz wyjaśnia, jak sobie z nimi radzić. Będziesz wiedział, co dzieje się z systemem w danej chwili i będziesz mógł polegać na własnych spostrzeżeniach, a nie tylko postępować zgodnie z wymyślonymi przez innych wskazówkami. Jest to książka dla ludzi rzeczywiście zainteresowanych swoimi systemami i ich działaniem, dla tych, którzy dokonują wyboru komputerów, instalują je, konfigurują i naprawiają, zarówno na potrzeby własne, jak i firm.
Aby tego dokonać, potrzebna jest wiedza o wiele większa niż posiadana przez przeciętnego użytkownika. Musisz wiedzieć, kiedy jakich narzędzi używać i jak się nimi właściwie posługiwać. Właśnie ta książka pomoże Ci poznać to wszystko.
Co znajdziesz w tej książce? Część I to wprowadzenie. W rozdziale 1. przedstawimy opis rozwoju komputerów IBM i kompatybilnych. Rozdział 2. zawiera informacje o różnych systemach, różnicach między nimi, uwzględniając różne magistrale systemowe. Znajdzie się tu również przegląd systemów komputerowych, których znajomość przyda się w dalszej części książki. Rozdział 3. uczy, jak rozłożyć komputer. Część 11 opisuje części składowe komputera. Rozdział 4. zawiera opis płyty głównej, rozdział 5. - opis różnych typów gniazd rozszerzeń i magistral. W rozdziale 6. szczegółowo przedstawimy procesor, zarówno Intela, jak i innych firm. W rozdziale 7. podyskutujemy na temat pamięci komputera, od podstawowej konfiguracji po fizyczne układy. W rozdziale 8. zajmiemy się zasilaczem, który jest głównym źródłem problemów i usterek komputera. Część 111 omawia urządzenia wejścia/wyjścia. Zaczynamy od opisu klawiatur, urządzeń wskazujących - w rozdziale 9. W rozdziale 10. przedstawimy urządzenia graficzne (karty graficzne i monitory). W rozdziale l1. omówimy problemy komunikacji między komputerami i sieci komputerowych, w rozdziale 12. skupimy się na urządzeniach audio: kartach dźwiękowych i głośnikach. Część IV zawiera opis pamięci masowych. W rozdziale 13. zajmiemy się napędami dysków elastycznych i ich kontrolerami, rozdziały 14. i 15. poświęcimy dyskom twardym (także IDE i SCSI), w rozdziale 16. opiszemy procedury ich instalacji, szczególnie przydatne przy wymianie napędów lub rozbudowie systemu oraz w przypadku konieczności ich naprawy. Rozdział 17. poświęcimy napędom CD-ROM, rozdział 18. - streamerom i innym urządzeniom pamięci masowej, a rozdział 19 przedstawi zagadnienia związane przenoszeniem danych na papier - drukowaniem. W części V skupimy się na rozbudowie i konserwacji komputera. W rozdziale 20. opiszemy problemy związane z zakupem i rozbudową systemu komputerowego. Informacje te mogą być szczególnie przydatne przy wyborze odpowiedniego komputera; przedstawimy wady i zalety różnych komputerów. Bardziej odważni mogą użyć tych informacji do samodzielnego składania komputera. W rozdziale 21. omówimy komputery przenośne: laptopy i notebooki oraz urządzenia specyficzne dla komputerów przenośnych, takie jak wyświetlacze czy baterie. W części VI zajmiemy się procedurami diagnostycznymi. W rozdziale 22. opiszemy narzędzia diagnostyczne, w rozdziale 23. przedstawimy system operacyjny i problemy z nim związane, a także zajmiemy się odzyskiwaniem danych. W rozdziale 24. przedstawimy komputery IBM XT i AT (poprzednicy współczesnych komputerów). Informacje te mogą być przydatne nie tylko do obsługi komputerów IBM. ale także innych kompatybilnych komputerów nie posiadających tak szczegółowej dokumentacji. Nauczysz się porównywać te komputery z pierwowzorem i zobaczysz, jak długą drogę przeszliśmy od czasu jego wprowadzenia. Rozdział 25. zawiera podsumowanie poznanych technologii i wskazówki, gdzie możesz szukać dodatkowych informacji. Dodatek A zawiera szczegółowy spis sprzedawców komputerów i oprogramowania, dodatek B zawiera podręczny słowniczek. Wierzę, że niniejsza książka okaże się najlepszą w swojej dziedzinie. Jest nie tylko instrukcją naprawy komputerów. W sposób szczegółowy przedstawia szeroki asortyment sprzętu komputerowego. Warto ją mieć nie tylko jako podręcznik ułatwiający poznanie i zrozumienie
systemu komputerowego i jego składników, ale także jako przewodnik pokazujący, jak radzić sobie z napotykanymi problemami. Mam nadzieję, że nie będziesz żałował dokonanego zakupu.
CD-ROM sprzedawany wraz z książką Wszystkie programy zawarte na płycie są dostępne bezpośrednio z interfejsu graficznego programu, który obsługuje CD-ROM. Można go uruchomić poprzez program start.exe, który jest umieszczony w głównym katalogu CD-ROM-u. Na CD-ROM-ie znajdziesz następujące narzędzia: * Firmy Microhouse: Image Cast Narzędzia DOS-owe * Inne: Microsoft Internet Explorer 4 Netscape Communicator 4.5 Adobe Acrobat Reader 3.01 Check-it 5.0 ExeSpy 98 Process Explorer 98 Pro Memory Monitor98 SurveyWin ComSpy98 GetRight Resource assistant PC-cillin 3.0 Dependency assistant Somarsoft DumpReg TechSeeker 98 Registry Administration Tool RegistryMonitor HyperS-DX Pro HyperCam WinZip Oprócz tego na płycie zamieszczono: numery archiwalne czasopisma 3D, wygaszacze ekranu i krótki opis serii wydawniczych Wydawnictwa Helion
Rozdział 1. Historia komputera osobistego Wiele odkryć i wynalazków miało bezpośredni i pośredni wpływ na powstanie komputera osobistego. Przyjrzyjmy się, jak to było.
Pierwsze komputery i ich dzieje Nowoczesny cyfrowy komputer jest w większości zbiorem elektronicznych przełączników. Przełączniki te używane są do sterowania przepływem danych zwanych bitami, reprezentowanymi przez cyfry binarne (O i 1). Ze względu na dwustanowy charakter systemu, wymagany był niezawodny przełącznik elektroniczny. Pierwsze komputery używały jako przełączników lamp elektronowych, które stwarzały wiele problemów. Lampy nie sprawdzały się jako przełączniki - pobierały za dużo prądu i wydzielały olbrzymie ilości ciepła. Był to poważny problem wczesnych systemów. Ze względu na wydzielane ciepło lampy były całkowicie zawodne - w dużych systemach uszkodzeniu ulegała średnio nawet jedna lampa na godzinę. Wynalazek tranzystora lub raczej półprzewodnika był jednym z najważniejszych osiągnięć prowadzących do powstania komputera osobistego. Tranzystor został wynaleziony w 1948 roku w Laboratorium Bella przez inżynierów Johna Bardeena, Waltera Brattaina i Williama Shockleya. Zastąpił lampę elektronową pracując jako stabilny elektroniczny przełącznik. Ponieważ był o wiele mniejszy i zużywał znacznie mniej mocy, systemy komputerowe budowane w oparciu o tranzystory były dużo mniejsze, szybsze i bardziej wydajne niż budowane z użyciem lamp elektronowych. Przejście na tranzystory rozpoczęło trend ku miniaturyzacji, który trwa do dzisiaj. Dzisiejsze laptopy czy palmtopy pracujące na bateriach posiadają większą moc obliczeniową niż wcześniejsze systemy zajmujące całe pomieszczenia i pobierające olbrzymie ilości energii elektrycznej. W roku 1959 inżynierowie z Texas Instruments skonstruowali układ scalony - półprzewodnikowy układ zawierający kilka tranzystorów połączonych wewnątrz tego układu. Pierwszy układ scalony zawierał tylko sześć tranzystorów. Dla porównania, mikroprocesor Intela, Pentium Pro posiada ponad 5,5 miliona tranzystorów, a wbudowany cache w niektórych układach zawiera dodatkowe 32 miliony tranzystorów! W 1969 roku Intel wprowadził na rynek 1-kilobitową kość pamięci, co wówczas było znaczącym osiągnięciem. (l kbit to 1024 bity, a bajt składa się z 8 bitów. Tak więc ta kość mieściła zaledwie 128 bajtów - nie za wiele, jak na dzisiejsze standardy). W wyniku sukcesów Intela w projektowaniu i wytwarzaniu układów scalonych, zwróciła się do niego japońska firma Busicomp produkująca kalkulatory. Zamówiła 12 różnych układów. Inżynierowie Intela natomiast stworzyli pojedynczy układ wykonujący funkcje wszystkich 12 zamówionych układów. Oprócz umieszczenia wszystkich funkcji 12 układów w jednym wielozadaniowym układzie, inżynierowie tak go zaprojektowali, aby mógł być sterowany przez program zmieniający jego funkcje. Układ był uniwersalny, tzn. mógł być zastosowany nie tylko w kalkulatorach. Poprzednie układy były ściśle jednozadaniowe z wbudowanymi instrukcjami; ten układ potrafił czytać z pamięci różne zestawy instrukcji, które sterowały jego działaniem. Idea była taka, aby stworzyć urządzenie liczące w oparciu o pojedynczy układ, które byłoby w stanie wykonać różne zadania, w zależności od zadanych instrukcji.
Pierwszy mikroprocesor - 4-bitowy Intel 4004 - został stworzony w 1971 roku. Pracował on z 4-bitowymi porcjami danych. Jego następcą był 8-bitowy mikroprocesor 8008, wyprodukowany w 1972 roku. W 1973 roku skonstruowano pierwsze zestawy mikroprocesorowe w oparciu o układ 8008. Były to praktycznie tylko urządzenia demonstracyjne, które nie wykonywały żadnych poważnych operacji. Pod koniec 1973 roku Intel wprowadził na rynek mikroprocesor 8080, który był 10-krotnie szybszy niż wcześniejszy układ 8008 i adresował do 64 kB pamięci. To był przełom w przemyśle komputerowym. W styczniu 1975 roku na pierwszej stronie magazynu Popular Electronic MITS zaprezentował zestaw Altair. Zestaw ten, uważany za pierwszy komputer osobisty, zawierał procesor 8080, zasilacz, panel przedni z dużą ilością wskaźników i 256 bajtów (nie kilobajtów) pamięci. Sprzedawany był w częściach za 395 dolarów. Posiadał wiele gniazd i wymagał różnych dodatkowych urządzeń peryferyjnych. Nowy procesor skłonił inne firmy do pisania programów, mi.in. powstały wtedy system operacyjny CP/M (Control Program for Microprocessors) i pierwsza wersja języka programowania Microsoft BASIC (Beginners Allpurpose Symbolic Instruction Code). W 1975 roku IBM wprowadził na rynek pierwszy osobisty komputer - model 5100. Miał 16 kB pamięci, wbudowany wyświetlacz 16 linii na 64 znaki, interpreter BASIC-a i napęd taśmowy DC-300 jako pamięć masową. System ten, z ceną 9000 dolarów, znajdował się poza głównym rynkiem komputerów osobistych, zdominowanym przez składających tanie zestawy (za ok. 500 dolarów) eksperymentatorów-hobbystów (nazywanych z sympatią hakerami). Komputer IBM nie był dla nich konkurencją i nie sprzedawał się dobrze. Model 5100 został zastąpiony przez modele 5110 i 5120, zanim jeszcze IBM wprowadził na rynek model 5150, znany nam jako komputer osobisty IBM (IBM Personal Computer - IBM PC). Chociaż seria komputerów 5100 poprzedzała IBM PC, starsze systemy i 5150 IBM PC nie mają ze sobą nic wspólnego. Stworzony przez IBM komputer osobisty był bardziej spokrewniony z IBM System/23 DataMaster, biurowym systemem komputerowym wprowadzonym w 1980 roku. Wielu inżynierów tworzących IBM PC wcześniej pracowało przy systemie DataMaster. W 1976 roku nowa firma, znana jako Apple Computer, wprowadziła model Apple I, sprzedawany za 695 dolarów. Składał się on z płyty głównej przykręconej do sklejki; nie zawierał obudowy i zasilacza. Zrobiono tylko kilka takich komputerów i zostały one sprzedane kolekcjonerom za ponad 20 tys. dolarów. Komputer Apple II, stworzony w 1977 roku, przyczynił się do stworzenia standardów dla prawie wszystkich późniejszych mikrokomputerów (wliczając w to IBM PC). W roku 1980 świat mikrokomputerów był zdominowany przez dwa systemy. Pierwszy to Apple II, posiadający liczną rzeszę lojalnych użytkowników i olbrzymią bazę programową rozwijającą się wprost w fantastycznym tempie. Drugi to system CP/M, składający się nie z pojedynczego systemu, ale z wielu systemów powstałych z oryginalnego MITS Altair. Systemy te były ze sobą kompatybilne i wyróżniały się wykorzystywanym systemem operacyjnym CP/M i gniazdami rozszerzeń spełniającymi wymagania standardu S-100 (dla gniazd 100-pinowych). Wszystkie te systemy były wytwarzane przez różnych producentów i sprzedawane pod różnymi nazwami. Jednak wykorzystywano w nich to samo oprogramowanie i urządzenia peryferyjne. Najbardziej interesujący jest fakt, iż żaden z tych systemów nie był kompatybilny z dwoma dominującymi obecnie standardami: PC i Mac.
Komputer osobisty IBM Pod koniec 1980 roku IBM postanowił zacząć konkurować na szybko rozwijającym się rynku tanich komputerów osobistych. Firma utworzyła specjalny dział rozwoju nowego systemu, nazwany Entry Systems Division, z siedzibą w Boca Raton na Florydzie. Grupa składała się z 12 inżynierów i projektantów pod kierownictwem Dona Estridge'a; głównym projektantem był Lewis Eggebrecht. Dział ten opracował pierwszy prawdziwy komputer osobisty IBM. (IBM traktuje system 5100 rozwinięty w roku 1975 raczej jako inteligentny programowalny terminal niż prawdziwy komputer.) Prawie wszyscy inżynierowie wchodzący w skład nowego działu rekrutowali się z zespołu System/23 DataMaster, który w 1980 roku stworzył ten mały biurowy system komputerowy. Wiele z. projektu DataMaster zostało przeniesione do komputera osobistego. W projekcie DataMaster wyświetlacz i klawiatura stanowiły całość z jednostką centralną. Ponieważ były to cechy w pewien sposób ograniczające, urządzenia te zostały wydzielone, choć układ klawiatury i projekt elektryczny zostały przekopiowane. Kilka innych części komputera osobistego zostało również przeniesionych, włączając w to gniazda rozszerzeń, które zawierały nie tylko takie samo fizyczne 62-pinowe złącze, lecz także spełniały prawie takie same wymagania techniczne. Było to możliwe, ponieważ komputer osobisty używał tego samego kontrolera przerwań i podobnego kontrolera dostępu do pamięci DMA, jakie były wykorzystywane w systemie DataMaster. Karty rozszerzeń zaprojektowane dla DataMaster mogły być więc w prosty sposób przeprojektowane do współpracy z komputerem osobistym. System DataMaster wykorzystywał procesor Intel 8085, mogący obsłużyć do 64 kB pamięci, i 8-bitowe wewnętrzne i zewnętrzne magistrale danych. To skłoniło zespół projektowy do użycia procesora Intel 8088, który mógł pracować z większą ilością pamięci (do l MB), posiadał 16-bitową wewnętrzną i 8-bitową zewnętrzną magistralę danych. 8-bitowa zewnętrzna magistrala danych i podobny zestaw instrukcji pozwoliły w projekcie komputera opartego na procesorze Intel 8088 w prosty sposób skorzystać z projektu interfejsów systemu DataMaster. Estridge wraz z zespołem projektowym szybko stworzył projekt i opracował wymagania techniczne dla nowego systemu. Oprócz zapożyczeń z systemu DataMaster obserwowano także rynek, co miało olbrzymi wpływ na projekt komputera osobistego IBM. Projektanci analizowali obowiązujące standardy, korzystali z sukcesów tych systemów i zastosowali je w nowym PeCecie. Korzystając z parametrów podpowiedzianych przez potrzeby rynku, IBM skonstruował komputer doskonale się na nim sprawdzający. IBM stworzył swój system w ciągu jednego roku, korzystając z istniejących już projektów i zakupując wszystkie możliwe części w innych firmach. Grupie Entry Systems Divisions została przyznana pewna niezależność, mogła więc ona dokonywać zewnętrznych zakupów bez biurokratycznej procedury, wymagającej wykorzystania tylko własnych produktów. IBM zamówił system operacyjny i języki programowania w małej firmie Microsoft. Ta decyzja miała decydujący wpływ na uczynienie z Microsoftu dominującej obecnie firmy software'owej.
Początkowo IBM zwrócił się z prośbą do firmy Digital Research (twórcy najbardziej wtedy popularnego systemu operacyjnego CP/M) o zawarcie niejawnej umowy i stworzenie systemu operacyjnego dla nowego komputera osobistego. Digital jednak odmówił, na czym skorzystał Microsoft i w wyniku współpracy z IBM-em stał się jedną z największych firm tworzących oprogramowanie na świecie.
W środę 12 sierpnia 1981 roku zadebiutował komputer osobisty IBM, ustanawiając nowy standard w przemyśle komputerowym. Od tego czasu sprzedano setki milionów komputerów, jako że oryginalny IBM dał początek olbrzymiej rodzinie. Dla tych komputerów napisano więcej oprogramowania niż dla jakiegokolwiek innego.
Rynek komputerów osobistych po 17 latach Po przeszło 17 latach od wprowadzenia przez IBM pierwszego komputera osobistego wiele się zmieniło. Komputery osobiste rozwinęły się od systemów opartych na procesorze 8088 z zegarem 4,77 MHZ po systemy z procesorem Pentium II z zegarem 300 MHz i są teraz prawie 2000 razy szybsze od pierwotnych PeCetów (biorąc pod uwagę rzeczywistą prędkość obliczeniową, a nie tylko częstotliwość zegara). Pierwsze komputery posiadały tylko jeden lub dwa napędy dyskietek 160 kB i pracowały z systemem DOS 1.0, podczas gdy dzisiejsze posiadają dyski o pojemności 10 GB i większej. W przemyśle komputerowym stało się regułą, że co dwa, trzy lata podwaja się moc procesora i wielkość twardych dysków. Sprawdza się to od początku istnienia komputera osobistego aż do dziś. Oprócz wydajności i pojemności dysków zaszła jeszcze jedna poważna zmiana - IBM przestał już być jedynym producentem komputerów osobistych. Ustalił standardy i dalej je ustala, ale nie jest już firmą dominującą na tym rynku. Obecnie częściej nowe standardy są ustalane przez inne niż IBM firmy i organizacje. Dzisiaj to Intel i Microsoft wiodą prym w rozwoju sprzętu i oprogramowania komputerowego. Ktoś nawet stworzył nazwę „Wintel" w odniesieniu do PeCeta, aby podkreślić dominującą rolę tych dwóch firm. Pomimo tej dominacji istnieją dosłownie setki producentów komputerów osobistych, nie wspominając o tysiącach wytwarzających różne peryferia, których produkcja wpływa na rozbudowę i ulepszenie komputerów osobistych. Komputery innych firm wybiły się nie tylko z powodu prostoty ich budowy, ale również dlatego, że twórcą głównego systemu operacyjnego był Microsoft, a nie IBM. Również BIOS (Basic Input Output System) był oferowany przez inne firmy, jak AMI, Award, Phoenix. Pozwalało to innym producentom na kupowanie licencji systemu operacyjnego i BIOS-u oraz sprzedawanie własnych komputerów. DOS zapożyczył funkcjonalność i interfejs użytkownika od systemów CP/M i Unix, co wpłynęło na ilość dostępnego oprogramowania. Później, kiedy i Windows odniósł znaczący sukces, powstało jeszcze więcej programów dla komputerów klasy PC. Jednym z powodów, dla których Apple Macintosh nie podzieli sukcesu PeCeta, jest to, że firma Apple jest właścicielem systemu operacyjnego i BIOS-u do tych komputerów i do niedawna nie sprzedawała go innym firmom. Wydaję się, że zrobiła to zbyt późno, aby z powodzeniem konkurować z PeCetami. Ta konkurencja między producentami i sprzedawcami komputerów przyczynia się do ciągłego rozwoju komputerów osobistych. Rynek komputerów osobistych w dalszym ciągu się rozwija, powstają technologie wykorzystywane w konstruowaniu nowych komputerów. Z powodu dużych możliwości zastosowania komputerów osobistych i dużej ilości oprogramowania wszystko wskazuje, że będą one dominowały na rynku przez następne 15-20 lat.
Rozdział 2.
Omówienie systemu komputerowego Rozdział ten wyjaśnia, co naprawdę kryje się pod pojęciem komputera PC, oraz opisuje różne typy występujących na rynku pecetów. Zamieszczono również dane na temat części składających się na nowoczesny komputer.
Co to jest komputer PC Zazwyczaj, gdy rozpoczynam jeden z prowadzonych przeze mnie kursów komputerowych, zadaję pytanie „Co to jest komputer PC?". Oczywiście większość ludzi natychmiast odpowiada, że „PC" to skrót od „komputer osobisty" (personal computer), co zresztą nie mija się z prawdą. Większość z nich pod tym pojęciem rozumie mały, domowy lub biurowy komputer zaspokajający najprostsze potrzeby. Takie określenie nie jest jednak wystarczająco precyzyjne. Mogę się zgodzić, że pecet jest komputerem osobistym, ale na pewno nie każdy komputer osobisty to pecet. Komputery Apple Macintosh to z całą pewnością komputery osobiste, ale nie znam nikogo, kto nazywałby je pecetami. Aby odnaleźć prawdziwą definicję tego, czym jest pecet, musisz sięgnąć głębiej. Nazwanie komputera pecetem znacznie dokładniej określa jego architekturę i nie pozwala na myślenie o nim jak o dowolnym komputerze osobistym. Z nazwą tą łączy się również pochodzenie od pierwszego komputera IBM PC z 1981 r. Można nawet powiedzieć, że IBM dosłownie wynalazł pecety, projektując i uruchamiając produkcję pierwszego egzemplarza. Oczywiste jest jednak również, że IBM nie wynalazł komputerów osobistych. (Pierwszy projekt komputera osobistego pochodzi z MITS Altair w 1975 r.). Niektórzy ludzie biorą to pod uwagę i definiują komputer PC jako jakikolwiek komputer „kompatybilny z IBM". Wiele lat temu oddawano IBM-owi cześć należną za wkład w tworzenie pecetów nazywając pecety także „klonami IBM-a". W rzeczywistości, pomimo iż IBM zaprojektował i stworzył w 1981 roku pierwszego peceta, a przez wiele kolejnych lat kontrolował rozwój standardu komputerów PC, nie ma już zbyt wiele do pokazania na tym polu. IBM utracił kontrolę nad standardem PC w 1887 r., gdy wprowadził na rynek linię komputerów PS/2. Do tego momentu inne firmy produkujące pecety kopiowały dokładnie wszystkie rozwiązania IBM-a, łącznie z układami, wtyczkami, a nawet kształtami (wymiarami) płyt głównych. W 1987 r. IBM porzucił jednak wiele z utworzonych uprzednio standardów. Właśnie z tego powodu zacząłem powstrzymywać się od korzystania z określenia „kompatybilne z IBM", gdy mówiłem o pecetach. Czym więc są pecety, skoro nie są już kompatybilne z IBM-em? Prawdziwe pytanie wydaje się jednak brzmieć „Kto obecnie kontroluje standard komputerów PC?". Pytanie to najlepiej jest rozdzielić na dwa inne: kto sprawuje kontrolę nad oprogramowaniem pecetów oraz kto kontroluje rozwój sprzętu komputerów PC.
Kto posiada kontrolę nad oprogramowaniem komputerów PC? Gdy zadaję to pytanie na prowadzonych przeze mnie kursach, większość ludzi nie zastanawia się nawet przez chwilę i natychmiast odpowiada „Microsoft". Nie wydaje mi się, by istniał jakikolwiek argument mogący wykazać nie poprawność tej odpowiedzi. Microsoft w sposób oczywisty kontroluje obecnie wykorzystywane w komputerach PC systemy operacyjne, które przeistoczyły się z MS-DOS-u do Windows 95/98 oraz Windows NT. Microsoft wykorzystuje kontrolę nad rynkiem systemów operacyjnych do sprawowania kontroli nad innymi typami oprogramowania pecetów, na przykład programami narzędziowymi i aplikacjami biurowymi. Przy zakupie systemu Windows otrzymuje się wiele programów narzędziowych, takich jak programy kompresji, dekompresji, optymalizacji oraz buforowania dysku, a nawet kalkulatory i notatniki, które początkowo były oferowane przez niezależnych producentów. Dołączane są nawet tak rozbudowane aplikacje jak przeglądarki stron WWW,
co budzi wielki niepokój firm oferujących wersje niezależne. Dzięki sprawowaniu kontroli nad systemem operacyjnym, Microsoft może tworzyć programy w większym stopniu niż aplikacje innych producentów zintegrowane z systemem. Właśnie dzięki temu firma ta obecnie dominuje w świecie oprogramowania komputerów PC, od edytorów tekstu, poprzez arkusze kalkulacyjne, aż do baz danych. Na początku istnienia pecetów, gdy IBM kontrolował jeszcze kierunek rozwoju komputerów osobistych, zatrudnił Microsoft do napisania większości oprogramowania ówczesnych pecetów. IBM wyprodukował komputery, napisał zbiór programów realizujących podstawowe operacje wejścia-wyjścia BIOS (Basic Input Output System), a Microsoft dyskowy system operacyjny DOS (Disk Operating System) oraz wiele innych aplikacji i programów narzędziowych. Jak się później okazało, IBM popełnił zarazem jedną z najkosztowniejszych pomyłek w świecie biznesu - nie zapewnił sobie praw wyłączności do DOS-u. Dzięki temu Microsoft mógł sprzedawać przeznaczony dla IBM-a kod DOS-u innym zainteresowanym firmom. Patrząc z perspektywy czasu, ten jeden drobny błąd w umowie umożliwił Microsoftowi przeistoczenie się w to, czym jest dzisiaj - dominującą firmą na rynku oprogramowania. W następstwie tego samego błędu IBM utracił kontrolę nad stworzonym przez siebie standardem komputerów PC. » Patrz „Niezależni producenci płyt głównych (OEMs)", str. 108 Powodem utracenia przez IBM kontroli nad opracowanym przez siebie standardem jest to, że oprogramowanie zawsze posiada prawa autorskie, podczas gdy sprzęt może być chroniony tylko poprzez patenty, które często są trudne do uzyskania, a i tak ich czas ważności upływa po 17 latach. Aby coś mogło zostać opatentowane, musi bazować na unikatowych i zauważalnie nowych rozwiązaniach, a przecież komputery PC były zbudowane z wcześniej już istniejących części, które każdy mógł zakupić! W rzeczywistości większość najważniejszych układów pochodziła od Intela, na przykład procesor 8088, generator cyklu podstawowego 8284, programowalny generator interwałów czasowych 8253/54, kontroler przerwań 8259, kontroler bezpośredniego dostępu do pamięci DMA (Direct Memory Access) 8237, interfejs urządzeń peryferyjnych 8255 oraz kontroler magistral 8288. Układy te były sercem oryginalnych komputerów PC. Ponieważ projekt oryginalnych komputerów PC nie został opatentowany, każdy mógł kopiować rozwiązania sprzętowe zastosowane w komputerach IBM PC. Wszystkim, co trzeba było zrobić, było zaopatrzenie się u dostawców w te same części, z których korzystał IBM, a następnie zaprojektowanie nowej płyty głównej. Aby ułatwić to zadanie, IBM wydał nawet łatwe do zdobycia podręczniki zawierające kompletne i bardzo szczegółowe schematy swoich płyt głównych oraz wszystkich kart rozszerzeń. Posiadam wiele z wczesnych podręczników IBM-a i nadal od czasu do czasu do nich sięgam, gdy potrzebuję szczegółowych informacji o niektórych elementach komputerów PC. Najtrudniejszą do skopiowania częścią pecetów było zabezpieczone prawami autorskimi oprogramowanie. Pierwszą firmą, która wymyśliła legalną metodę obejścia tego problemu, czyli w zasadzie duplikacji (ale nie skopiowania) trudnego do zastąpienia oprogramowania (na przykład BIOS-u), był Phoenix Software. Firma ta zatrudniała dwie grupy informatyków, przy czym skład drugiej grupy został specjalnie dobrany tak, by pracowali w niej informatycy, którzy nigdy nie widzieli ani nie analizowali kodu BIOS-u IBM-a. Ludzie w pierwszej grupie badali i tworzyli tak szczegółowy, jak tylko to było możliwe, opis tego oprogramowania. Druga grupa czytała opis tworzony przez pierwszą grupę i na jego podstawie pisała nowy BIOS, który wykonywał wszystkie opisane przez pierwszą grupę funkcje. Produktem końcowym całego procesu był BIOS funkcjonujący równie dobrze jak oryginał, napisany na jego podstawie, ale różniący się od niego rozwiązaniami poszczególnych problemów.
Phoenix nazwał tę technikę metodą czystego pokoju (clean room approach) i w odróżnieniu od odtwarzania kodu oprogramowania (na przykład za pomocą oprogramowania dekompilującego), nie można jej niczego zarzucić pod względem prawnym. Ponieważ BIOS IBM-a zawierał tylko 8 kB użytecznego kodu i miał określone funkcje, kopiowanie go poprzez technikę czystego pokoju nie było trudne. Później, inne firmy produkujące BlOS-y nie miały problemów z nadążaniem za IBM-em w rozwijaniu swoich produktów. Nie licząc części BIOS-u, w której zawarty jest POST (Power On Self Test), większość BIOS-ów posiada tylko 32 kB aktywnego kodu. Obecnie, poza firmą Phoenix istnieje również wielu innych producentów BIOS-ów, takich jak Award, AMI czy też Microid Research. Po skopiowaniu układów oraz BIOS-u komputerów PC IBM-a, jedynym, co dzieliło komputer od stania się w pełni kompatybilnym z IBM-em, był DOS. Kopiowanie DOS-u poprzez technikę czystego pokoju byłoby bardzo pracochłonnym zadaniem, ponieważ DOS jest znacznie większy od BIOS-u i posiada o wiele więcej pod programów i funkcji. Innym problemem z kopiowanym w ten sposób systemem operacyjnym jest jego ewolucja -systemy operacyjne zmieniają się w znacznie częściej i istotniej niż BIOS, który w porównaniu z tempem tych zmian jest właściwie niezmienny. Oznacza to, że jedynym sposobem uzyskania DOS-u na komputerze kompatybilnym z IBM-em, jest uzyskanie na niego licencji. I tu właśnie pojawia się Microsoft. Ponieważ IBM (który na samym początku zatrudnił Microsoft do napisania DOS-u) nie zawarł z nim umowy na wyłączność, Microsoft mógł sprzedawać kopie DOS-u komu tylko zechciał. Licencjonowana kopia DOS-u była ostatnim elementem w układance tworzącej komputer kompatybilny z IBM-em, który mógł być produkowany i sprzedawany niezależnie od tego, czy IBM-owi się to podobało, czy nie. Patrząc z perspektywy czasu, właśnie to zadecydowało o braku komputerów będących klonami lub kompatybilnymi z Apple Macintosh. Nie jest to związane z tym, że komputerów Apple nie da się skopiować; prawdę mówiąc, układy tych komputerów są dość proste i łatwe w produkcji. Prawdziwym problemem jednak jest to, że Apple jest jedynym właścicielem systemu operacyjnego MAC OS i nie sprzedaje ani nie licencjonuje go żadnej firmie, przez co nikt inny nie może sprzedawać komputerów kompatybilnych z tym standardem. W dodatku Mac BIOS oraz system operacyjny są bardzo ze sobą zintegrowane; BIOS tych komputerów jest bardzo duży, rozbudowany i stanowi ważną część systemu operacyjnego. Dzięki temu zarówno BIOS, jak i system operacyjny uzyskał odporność na jakiekolwiek procedury kopiowania z wykorzystaniem techniki czystego pokoju i najprawdopodobniej bez błogosławieństwa (licencji) firmy Apple nigdy nie powstaną żadne klony jej komputerów. Ponieważ IBM posiada jedynie nie dającą mu praw wyłączności licencję na korzystanie z DOS-u, każda firma, która chciałaby stosować ten system w swoich komputerach kompatybilnych z IBM PC, może zakupić go od Microsoftu. Dzięki temu praktycznie każdy może tworzyć komputery kompatybilne z IBM-em, niezależnie od tego, co IBM o tym myśli. Ponieważ użytkownikom zależy na oprogramowaniu kompatybilnym wstecz, firma posiadająca wyłączną kontrolę nad systemem operacyjnym automatycznie uzyskuje również kontrolę nad całym oprogramowaniem. Dopóki będziemy instalować na naszych komputerach systemy operacyjne Microsoftu, firma ta będzie mogła kontrolować rynek oprogramowania komputerów PC.
Kto wytycza nowe rozwiązania w sprzęcie komputerów PC? Choć oczywiste jest, że Microsoft zawsze posiadał kontrolę nad oprogramowaniem komputerów PC, warto również zastanowić się, kto posiada kontrolę nad rynkiem osprzętu. Z łatwością można zauważyć, że IBM posiadał kontrolę nad tym rynkiem do 1987 r. Nie licząc wszystkiego innego, IBM określił podstawowe założenia płyt głównych pecetów, zaprojektował architekturę gniazd rozszerzeń (8- i 16-bitową magistralę ISA), portów szeregowych i równoległych, kart graficznych aż do standardu VGA i XGA, zaprojektował również standardy interfejsów i sterowników twardych dysków oraz stacji dysków, sposób zasilania, wygląd i interfejs klawiatury, interfejs myszy, a nawet fizyczne parametry
(wymiary) wszystkich elementów, od płyty głównej do kart rozszerzeń, zasilaczy i obudów. Wymiary niektórych elementów komputerów stosowane przez IBM przed 1987 r. nadal wpływają na wygląd produkowanych obecnie, nowoczesnych komputerów. Prawidłowo postawione pytanie jednak brzmi: „Która firma odpowiada za tworzenie i projektowanie nowoczesnych interfejsów, standardów oraz elementów komputerów PC?". Gdy zadaję to pytanie, zazwyczaj widzę w odpowiedzi pewne zmieszanie - niektórzy mówią, że Microsoft (ale on kontroluje rynek oprogramowania, nie sprzętu), inni wymieniają firmę Compaq lub innego dużego producenta markowych komputerów -wreszcie, jest niewielka grupa osób podających prawidłową odpowiedź - Intel. Mogę zrozumieć, dlaczego większość ludzi nie od razu zdaje sobie z tego sprawę, ale warto jednak zastanowić się, jak wielu ludzi posiada obecnie komputery PC wyprodukowane przez Intela. I nie mam tu na myśli komputerów, na których jest nalepiony znaczek z napisem „intel inside" (oznaczający tylko to, że w komputerze znajduje się procesor Intela), lecz komputery, które zostały w całości zaprojektowane i wyprodukowane przez Intela lub nawet od niego kupione. Wierz mi lub nie, ale mogę powiedzieć, że obecnie większość ludzi posiada takie komputery! Oczywiście nie oznacza to, że kupili komputery u Intela; Intel, jak wiadomo, nie produkuje kompletnych zestawów PC. Nie możesz zamówić komputera w firmie Intel ani też kupić takiego komputera za pomocą pośrednika. Cały czas jednak mam na myśli płytę główną. Według mnie, najważniejszym elementem komputera PC jest płyta główna i uważam, że to właśnie producent płyty głównej powinien być postrzegany jako prawdziwy producent komputera. * Patrz „Płyty główne" str. 101 Najlepsi producenci produkują własne płyty główne. Według czasopisma Computer Reseller News, w ciągu ostatnich lat najważniejszymi producentami komputerów PC stale byli Compaq, Packard Bell oraz IBM. Firmy te projektują i produkują własne płyty główne, a także wiele innych elementów komputerów. W niektórych przypadkach projektują nawet własne układy i elementy chipsetów płyt głównych. Choć firmy te sprzedają wiele komputerów, istnieje poza nimi inny, duży obszar rynku, który możemy nazwać drugim poziomem. Na drugim poziomie znajdują się firmy, które w rzeczywistości nie produkują komputerów, lecz tylko je składają. To znaczy, kupują płyty główne, obudowy, zasilacze, napędy dyskowe, urządzenia peryferyjne oraz inne elementy komputerów, a następnie łączą je ze sobą i sprzedają jako kompletne zestawy. Jedne z największych firm składających w ten sposób komputery to Dell, Gateway oraz Micron, jednak istnieją również tysiące innych firm, które można by było tu wymienić. Wszystkie te firmy razem wzięte są największą częścią obecnego rynku pecetów. Komputery kupowane w firmach drugiego poziomu posiadają interesującą cechę - z nielicznymi wyjątkami, nie ma znaczenia, w jakiej firmie zakupimy elementy rozbudowujące nasz komputer. Praktycznie taki sam system można też zbudować od podstaw - ale to już temat na oddzielny rozdział (szersze omówienie tego tematu znajduje się w rozdziale 20. „Samodzielny montaż komputera") Skoro Gateway, Dell, Micron i inni nie tworzą wykorzystywanych w swoich komputerach płyt głównych, kto robi to za nich? Zgadłeś - Intel. Jednak nie należy przez to rozumieć, że bardzo dobre płyty Intela są przeznaczone wyłącznie dla ich komputerów - jeśli tylko sprawdzisz, okaże się, że większość komputerów produkowanych przez firmy drugiego poziomu działa w oparciu o płyty główne Intela. Właśnie przeczytałem w ostatnim numerze czasopisma Computer Shopper porównanie 10 komputerów z procesorem Pentium II i, nie żartuję, w ośmiu z nich zastosowano płyty główne Intela. Co więcej, we wszystkich ośmiu komputerach zastosowano nawet ten sam model. Oznacza to, że komputery te różniły się tylko wyglądem obudowy, kartami graficznymi, napędami dyskowymi, klawiaturami oraz innymi dodatkami wprowadzanymi w danej chwili przez producentów.
Pozostałe dwa komputery posiadały co prawda płyty innych producentów, ale nawet w nich wykorzystywany był procesor Pentium II Intela oraz jego chipset płyt głównych, który w sumie stanowi ponad 90% ceny płyty. * Patrz „Pentium II", str. 318 * Patrz „Chipsety", str. 345 Jak i kiedy to tego doszło? Od chwili gdy IBM postanowił wykorzystać procesor 8088 Intela w pierwszym komputerze IBM PC z 1981 r., Intel zawsze był głównym dostawcą procesorów pecetów. Dzięki posiadaniu kontroli nad procesorami, Intel w naturalny sposób uzyskał kontrolę nad układami wymaganymi do umieszczania jego procesorów w komputerach. Dzięki temu zyskał przewagę nad innymi producentami chipsetów. Pierwszym wyprodukowanym przez Intel chipsetem był 82350 EISA (Extended Industry Standard Architecture), który ujrzał światło dzienne w 1989 r. Już w 1993 r. Intel stał się największym producentem chipsetów płyt głównych. Mogę sobie wyobrazić, że w tym momencie Intel zaczął się zastanawiać, dlaczego nie wyeliminować pośredników i nie produkować całych płyt głównych, skoro produkuje zarówno procesory, jak i wszystkie układy niezbędne do tworzenia płyty głównej. Odpowiedź na to pytanie, stanowiąca zarazem punkt zwrotny tej części przemysłu komputerowego, nadeszła około 1994 r., gdy Intel stał się największym producentem płyt głównych na świecie. Dzięki temu umocnił swoją pozycję bardziej niż kiedykolwiek wcześniej. Intel nie wyprzedzał innych producentów o jakąś niewielką odległość; w 1996 r. firma ta wyprodukowała więcej płyt głównych niż pięć kolejnych pod względem produkcji firm razem wziętych, sprzedając ponad 20 milionów płyt głównych, o łącznej wartości przekraczającej 2 miliardy dolarów! Płyty te trafiają do różnych producentów składających komputery, które kupujemy zarówno Ty, jak i ja, co w praktyce oznacza, że właściwie kupujemy komputery wyprodukowane przez Intel, niezależnie od tego, jaki producent się na nich podpisał. Bez dwóch zdań, dzięki sprawowaniu kontroli nad płytami głównymi, Intel kontroluje również standard sprzętowy komputerów PC. Firma ta ma nie tylko olbrzymi wpływ na wykorzystywane w obecnych komputerach płyty główne, ale i dostarcza innym producentom płyt głównych swoje Chipsety oraz procesory. Oznacza to, że nawet jeśli nie masz płyty głównej Intela, najprawdopodobniej posiadasz wyprodukowany przez niego procesor i/lub chipset. Intel ma również swój wkład w ustalaniu wielu istniejących standardów sprzętowych komputerów PC. To właśnie Intel zaprojektował interfejs szyny PCI (Peripheral Com-ponent Interconnect) oraz nową, przeznaczoną dla wydajnych kart graficznych szynę AGP (Accelerated Graphics Port). Intel zaprojektował również standard płyt głównych i obudów ATX, zastępujący wykorzystywany od wczesnych lat 80., zaprojektowany przez IBM, standard Baby-AT. Intel określił również wymiary płyt głównych NLX, w celu zastąpienia zastrzeżonego i ograniczonego LPX, wykorzystywanego w wielu tańszych komputerach, dzięki czemu stało się możliwe uaktualnienie płyt głównych tych komputerów. Intel stworzył także standard DMI (Desktop Management Interface), służący do monitorowania działania poszczególnych elementów komputera, oraz standardy DPMA (Dynamie Power Management Architecture) i APM (Advanced Power Management), służące do zarządzania poborem energii komputerów PC. To właśnie Intel nalegał na wprowadzenie unowocześnień w chipsetach płyt głównych, dodanie obsługi nowych typów pamięci, takich jak EDO (Extended Data Out), SDRAM (Synchronous Dynamie RAM) oraz RDRAM (Rambus Dynamie RAM); wprowadzenie nowych i szybszych interfejsów szyn, szybszego dostępu do pamięci.
Dzięki tworzeniu specjalnych energooszczędnych procesorów, chipsetów oraz zintegrowanych układów łączących procesor z chipsetem na płycie głównej, Intel ma również znaczący wpływ na rynek komputerów przenośnych, umożliwiając uproszczenie ich konstrukcji oraz zwiększenie funkcjonalności i wydajności. Szybko można się zorientować, że Intel posiada równie dużą kontrolę nad sprzętową stroną standardu PC, jak Microsoft nad oprogramowaniem. Ktokolwiek kontroluje produkcję systemu operacyjnego, ma również kontrolę nad oprogramowaniem; ktokolwiek kontroluje procesor i płyty główne, sprawuje kontrolę nad sprzętem. Ponieważ wygląda na to, że Microsoft i Intel posiadają razem kontrolę nad oprogramowaniem i sprzętem obecnych pecetów, nie budzi zdziwienia coraz częstsze określanie nowoczesnych komputerów PC mianem Wintel.
Specyfikacja PC 9x Pomimo iż to Intel posiada pełną kontrolę nad sprzętem pecetów, Microsoft dostrzegł swój wpływ na rynek komputerów PC i zaczął wydawać dokumenty nazywane „PC 9x Design Guide", w których zawarte są specyfikacje dla twórców oprogramowania i sprzętu zgodnego z systemem Windows. Spełnienie zawartych w nich wymagań to jeden z warunków uzyskania możliwości korzystania ze znaku „Designed for Windows". Innymi słowy, jeśli stworzysz jakiś program czy urządzenie i chcesz, by na pudełku, w którym będzie sprzedawane, znajdowało się oficjalne logo „Designed for Windows", Twój produkt musi spełniać minimalne wymagania specyfikacji 9x. W skład specyfikacji 9x wchodząjak dotąd następujące dokumenty: * Hardware Design Guide for Microsoft Windows 95 (Projektowanie sprzętu zgodnego z Microsoft Windows 95) * Hardware Design Guide Supplement for PC 95 (Suplement do projektowania sprzętu zgodnego z PC 95) * PC 97 Hardware Design Guide (Projektowanie sprzętu zgodnego z PC 97) * PC 97 System Design Guide (Projektowanie komputerów zgodnych z PC 97) * PC 98 System Design Guide (Projektowanie komputerów zgodnych z PC 98) Wszystkie te dokumenty są dostępne zarówno w formie elektronicznej (można je zgrać ze strony WWW Microsoftu), jak i książkowej (wydawane przez Microsoft Press). Specyfikacje 9x zawierają informacje dla inżynierów tworzących komputery osobiste, karty rozszerzeń oraz urządzenia peryferyjne, które będą wykorzystywane w systemach operacyjnych Windows 95, 98 oraz Windows NT. Tymi wymaganiami i zaleceniami budowy komputerów PC określane są podstawowe wymagania sprzętu sygnowanego przez Microsoft za pomocą logo „Designed for Microsoft Windows". W tych dokumentach zawarte są wymagania zwykłych (biurowych i przenośnych) komputerów PC, stacji roboczych, a nawet pecetów wykorzystywanych tylko w celach rozrywkowych. Została w nich również określona konfiguracja urządzeń Plug-and-Play, zarządzanie energią, parametry uniwersalnego portu szeregowego (USB) i IEEE 1394, a także nowych urządzeń obsługiwanych przez Windows, łącznie z nowymi kartami graficznymi i ich możliwościami, czytnikami DVD, skanerami, kamerami cyfrowymi oraz innymi urządzeniami.
Typy komputerów Komputery PC możemy podzielić na wiele różnych kategorii. Dla mnie najwygodniejszy jest podział ze względu na oprogramowanie, które można uruchomić na danym komputerze, oraz ze względu na zastosowaną na płycie magistralę zewnętrzną lub projekt i szerokość magistrali procesora. Ponieważ książka ta skupia się głównie na sprzęcie, ograniczymy się do ostatniego podziału. Gdy procesor odczytuje dane, są one do niego przekazywane poprzez magistralę procesora. Magistrala procesora jest bezpośrednio podłączona do umieszczonej na płycie głównej magistrali systemowej. Magistrala procesora lub magistrala systemowa płyty głównej jest czasami nazywana magistralą lokalną, ponieważ jest lokalna dla bezpośrednio do niej podłączonego procesora. Wszystkie inne urządzenia podłączone do umieszczonej na płycie głównej magistrali systemowej działają w zasadzie tak samo, jakby były bezpośrednio podłączone do procesora. Jeśli procesor posiada 32-bitową magistralę, na płycie głównej musi się znajdować 32-bitowy procesor magistrali systemowej. Oznacza to, że komputer w jednym cyklu może przenosić 32-bitowe wartości danych z i do procesora. W różnych procesorach zastosowano różne szerokości magistrali procesora; płyta główna przeznaczona pod określony typ procesora musi posiadać magistralę systemową o dobranej szerokości. W tabeli 2.1 zostały wypisane wszystkie procesory Intela, wraz z szerokościami ich magistrali. Podczas omawiania szerokości magistrali procesora często dochodzi do nieporozumień. Pomimo iż wszystkie procesory Pentium posiadają 64-bitową magistralę, ich wewnętrzne rejestry są tylko 32-bitowe i w związku z tym procesory te przetwarzają 32-bitowe polecenia i instrukcje. Z punktu widzenia oprogramowania wszystkie procesory od 386 do Pentium II posiadają 32-bitowe rejestry i wykonują 32-bitowe instrukcje. Patrząc jednak
Tabela 2.1. Procesory Intela wraz z szerokościami magistrali Procesor
Szerokość magistrali
8088
8-bitowa
8086
16-bitowa
286
16-bitowa
386SX
16-bitowa
386SL
16-bitowa
386DX
32-bitowa
486SX
32-bitowa
486SX2
32-bitowa
487SX
32-bitowa
486DX
32-bitowa
486DX2
32-bitowa
486DX4
32-bitowa
486Pentium OD
32-bitowa
Pentium 60/66
64-bitowa
Pentium 75-200
64-bitowa
Pentium MMX
64-bitowa
Pentium Pro
64-bitowa
Pentium II
64-bitowa
od strony budowy fizycznej, procesory te posiadają 16- (386 SX), 32- (386DX, 486), oraz 64bitowe (Pentium) magistrale. Szerokość magistrali jest bardzo ważnym parametrem płyty głównej i organizacji pamięci komputera, ponieważ decyduje o liczbie bitów przekazywanych w jednym cyklu z i do procesora. Przyszły procesor P7 o nazwie kodowej Merced ma posiadać nowe, 64-bitowe instrukcje, równocześnie jednak będzie w stanie przetwarzać starsze, 32-bitowe polecenia procesorów 386, 486 oraz Pentium. Nie jest jeszcze wiadome, czy Merced będzie posiadał taką samą jak procesory Pentium, 64-bitową magistralę, czy też, jak przypuszczają niektórzy, będzie pracował na magistrali 128-bitowej. » Patrz „Parametry procesorów", str.209 Patrząc na tabelę 2.1 możesz zauważyć, że procesory 486 posiadają 32-bitową magistralę, co oznacza, że każda płyta główna pod 486 powinna również posiadać 32-bitową szynę danych. Wszystkie procesory Pentium, niezależnie od tego, czy jest to Pentium, Pentium MMX, Pentium Pro, czy też nawet Pentium II, posiadają 64-bitowe magistrale, co oznacza, że płyty główne pod te procesory powinny posiadać 64-bitowe szyny danych. Nie możesz umieścić 64-bitowego procesora na 32-bitowej płycie głównej, co jest jednym z powodów nie obsługiwania przez płyty 486 prawdziwych procesorów Pentium. Tak jak widzisz w tej tabeli, komputery możemy podzielić na: * 8-bitowe *
16-bitowe
* 32-bitowe * 64-bitowe Co ciekawe, pomijając szerokości magistrali, komputery od 16- do 64-bitowych są bardzo podobne do siebie pod względem architektury i podstawowych założeń. Starsze, 8-bitowe systemy bardzo się od nich różnią. Dzięki twemu uzyskujemy dwa podstawowe typy lub klasy sprzętowe: * Systemy 8-bitowe (klasy PC/XT) * Systemy 16/32/64-bitowe (klasy AT)
PC jest skrótem od komputer osobisty (Personal Computer), XT to skrót od rozszerzony PC (eXTended PC), natomiast AT pochodzi od PC zaawansowanej technologii (Advanced Technology PC). Wykorzystywane tu terminy PC, XT, oraz AT pochodzą od nazw oryginalnych komputerów IBM-a. Komputery XT różniły się od wyposażanych tylko w stacje dysków komputerów PC przede wszystkim posiadaniem twardych dysków. Systemy te posiadały 8-bitowy procesor 8088 oraz możliwość rozbudowy poprzez magistralę ISA (Industry Standard Architecture). Poprzez pojęcie magistrali określa się także gniazda rozszerzeń, w których można umieszczać dodatkowe urządzenia zwiększające możliwości systemu. Ponieważ montowana w komputerach klasy PC/XT magistrala ISA w jednym cyklu mogła wysłać lub otrzymać tylko 8 bitów danych, oznacza się ją jako 8-bitową. Dane w 8bitowej magistrali są przesyłane równocześnie poprzez osiem równoległych ścieżek. * Patrz „Magistrala ISA", str. 150 Systemy 16- i więcej bitowe, o których można powiedzieć, że są klasy AT, muszą spełniać pewne standardy i stanowić rozwinięcie podstawowego projektu komputerów AT IBM-a. AT jest oznaczeniem IBM-a stosowanym do pierwszych komputerów zawierających bardziej zaawansowane, 16-bitowe (oraz późniejsze 32- i 64-bitowe) procesory oraz gniazda rozszerzeń. Komputery klasy AT muszą posiadać jakikolwiek procesor kompatybilny z procesorem 286 lub nowszym Intela (na przykład 386, 486, Pentium, Pentium Pro, Pentium II), oraz muszą posiadać 16- lub więcej bitową magistralę. Architektura magistrali systemowej jest wspólna dla wszystkich systemów AT, łącznie z podstawową architekturą pamięci, przerwań IRQ (Interrupt ReQuest), kanałów DMA (Direct Memory Access) oraz rozwiązaniami adresowania portu I/O. We wszystkich komputerach klasy AT zastosowano podobne rozwiązania w odniesieniu do funkcjonowania i przydzielania tych zasobów. Pierwsze komputery AT miały 16-bitową szynę danych ISA, będącą rozbudową 8-bitowej szyny ISA występującej w komputerach PC/XT. Jednak i dla nich stworzono specyficzne standardy gniazd rozszerzeń i szyn danych, obejmujące m.in.: *
16-bitowe magistrale ISA
* 16/32-bitowe magistrale EISA (Extended ISA) * 16/32-bitowe magistrale MCA (Micro Channel Architecture) * 16-bitowe porty PC-Card (PCMCIA) * 32-bitowe porty Cardbus (PCMCIA) * 32/64-bitowe magistrale PCI (Peripheral Component Interconneci) * Magistrale AGP (Accelerated Graphics Port) Komputer używający jednej z powyższych magistral zaliczany jest z definicji do komputerów klasy AT niezależnie od wykorzystywanego procesora. Komputery z procesorami 386 i nowszymi posiadają dodatkowe możliwości (nieobecne w pierwszej generacji komputerów 286) dotyczące adresowania pamięci, zarządzania pamięcią i 32/64-bitowe magistrale danych. Większość komputerów z procesorami 386DX i nowszymi posiada również 32-bitowe zewnętrzne magistrale danych, mogą więc one w pełni korzystać z 32-bitowej architektury procesora. Dzisiejsze komputery posiadają 16-bitowe gniazda ISA tylko w celu umożliwienia instalowania starszej generacji karty rozszerzeń oraz gniazda PCI dla rzeczywiście wysokowydajnych kart. Komputery przenośne używają gniazd PC-Card i Cardbus, a także ISA i PCI w stacjach dokujących.W rozdziale 5. „Gniazda, magistrale i karty rozszerzające" opiszemy dokładnie te i inne magistrale systemowe podając również dane techniczne, m.in. dotyczące wydajności, oraz teoretyczne zasady ich działania.
W tabeli 2.2 przedstawiamy zebrane podstawowe różnice pomiędzy starszymi 8-bitowymi komputerami a komputerami AT. Komputer PC/XT najłatwiej rozpoznać po jego 8-bitowych gniazdach rozszerzeń ISA. Jeżeli wszystkie gniazda są 8-bitowe, to niezależnie od procesora i innych części komputera jest to PC/XT. Podobnie komputery AT można zidentyfikować po ich przynajmniej 16-bitowych gniazdach dowolnego typu. Mogą to być ISA, EISA, MCA, PCCard (wcześniej PCMCIA), Cardbus, VL-Bus, PCI. Wykorzystując te informacje możesz zakwalifikować dowolny komputer do grupy PC/XT lub AT. Komputerów PC/XT już od wielu lat się nie produkuje, tak więc, gdy nie znajdujesz się właśnie w muzeum, praktycznie każdy komputer, z jakim masz do czynienia, bazuje na technologii AT. Aby poznać inne różnice pomiędzy tymi systemami, zajrzyj do odpowiedniego rozdziału niniejszej książki.
Tabela 2.2. Różnice między komputerami PC/XT i AT Komputery PC/XT Komputery AT Używane procesory
x86 i x88
286 i nowsze
Tryby pracy procesora
Rzeczywisty
Rzeczywisty/Chroniony /Witrualny
Oprogramowanie rozszerzeń
Gniazda Tylko 16-bitowe 16lub 32-bitowe 8-bitowe 16/32/64-bitowe ISA, EISA, MCA, PCCard, Cardbus, VL-Bus, PCI
Typy gniazd
Tylko ISA
Przerwania sprzętowe
8 (6 do 16(11 do wykorzystania) wykorzystania)
Kanały DMA
4 (3 do 8 (7 do wykorzystania) wykorzystania]
Maksymalna ilość pamięci RAM
1 MB
16 MB/4 GB lub więcej
Prędkość dyskietek
250 kbit/s
250/300/500/1000 kbit/s
kontrolera
napędu
Standardowy napęd dyskietek
360 kB lub 720 kB 1,2 MB/1,44 MB/2,88 MB
Interfejs klawiatury
Jednokierunkowy Dwukierunkowy
CMOS pamięć/zegar
brak standardu
Układ portu szeregowego (UART) 8250 B
Kompatybilne 144818 16450/16550A
z
MC
Dokumentacja Jednym /. największych problemów przy naprawie i rozbudowie komputera jest posiadanie właściwej dokumentacji. Ponieważ ciężko zdobyć dokumentację do starego komputera lub jego części, dobrze się w nią zaopatrzyć przy jego zakupie. Jest kilka rodzajów dokumentacji: * Podręcznik użytkownika. Podręcznik dostarczany przez producenta komputera, często dzielony na kilka części, np. opis systemu operacyjnego, podstawowych programów narzędziowych, ogólnej budowy komputera * Dokumentacja podzespołów. Dostarczana przez producenta komputera, zawierająca opis głównych części komputera, takich jak płyta główna, karta wideo, twardy dysk, napęd dyskietek, napęd CD-ROM, modem, karta sieciowa, adapter SCSI itp. * Dokumentacja układów. Jest najbardziej szczegółowa. Może zawierać opis procesora, układów płyty głównej, układów wejścia/wyjścia, BIOS-u, modułów pamięci, układów wideo, kontrolerów dysku, interfejsu SCSI, interfejsu sieciowego itp. Pierwsze dwa rodzaje dokumentacji to podstawa przy diagnozowaniu i rozbudowie komputera. Bardziej techniczna dokumentacja poszczególnych układów jest przydatna w zasadzie tylko specjalistom. Ale jeżeli chcesz, tak jak ja, poznać działanie systemu komputerowego, przekonasz się, że czasem może być ona bardzo przydatna. W tym rozdziale przyjrzymy się wszystkim rodzajom dokumentacji i, co najważniejsze, opiszemy, gdzie ją zdobyć.
Podstawowa dokumentacja - Podręcznik użytkownika Do każdego sprzedawanego komputera powinien być dołączony podręcznik użytkownika. Jego zawartość zależy od rodzaju sprzętu i firmy montującej. Znane firmy, takie jak IBM, Compaq, Hewlett-Packard, Toshiba, Packard Bell, do każdego sprzedawanego modelu dołączają odrębne podręczniki. Natomiast aby dostać szczegółową dokumentację, trzeba skontaktować się bezpośrednio z producentem. Firmy zajmujące się montażem komputerów z ogólnie dostępnych części albo dołączają własną dokumentację, albo dokumentację poszczególnych części, z których dany komputer został złożony. Postępuje tak większość dużych firm, takich jak Gateway, Dell, Micron, Midwest Micro. Dokumentacja tego typu jest przydatna dla osób konfigurujących komputer po raz pierwszy lub podczas drobnej rozbudowy, ale niewystarczająca przy diagnozowaniu i poważniejszej rozbudowie. W takim przypadku przydatne będą opisy poszczególnych części dostępne tylko u ich wytwórców. Mniejsze firmy z reguły nie tworzą własnej dokumentacji, lecz dołączają dokumentację do każdej montowanej części. Na przykład, jeżeli w skład pewnego komputera wchodzą płyta główna Asus i karta graficzna STB, to do tego zestawu będzie dołączona ich oryginalna dokumentacja.
Żądanie wydania dokumentacji Niektóre firmy montujące komputery nie dołączają dokumentacji. Zmusza to nabywcę do kontaktów ze sprzedawcą, kiedy potrzebuje pomocy lub dodatkowej informacji o zakupionym sprzęcie. Sprawia to wrażenie, że to właśnie ta firma wyprodukowała komputer, a nie tylko złożyła go z ogólnie dostępnych części. Nie polecam zakupów w firmie nie dołączającej dokumentacji do wykorzystywanych przy montażu podzespołów.
Standardowe podręczniki dołączane do większości części komputerowych zawierają opisy konfiguracji systemu, jego testowania i instalacji. Czasami są również dołączane dyskietki z prostymi programami diagnostycznymi. Są to najczęściej niepełne wersje komercyjnych programów diagnostycznych.
Większość sprzedawców i producentów sprzętu umieszcza dokumentację na swoich witrynach WWW. Dodatek A zawiera listę sprzedawców i adresy ich stron WWW.
Dokumentacja podzespołów i urządzeń zewnętrznych Jak powszechnie wiadomo, znaczna część sprzedawanych obecnie komputerów nie jest wytwarzana przez pojedynczego producenta, ale jest montowana z ogólnie dostępnych części. Szczerze polecam kupowanie właśnie takich komputerów, ponieważ wszystkie części odpowiadają ustalonym standardom i łatwo mogą być wymienione lub rozbudowane. Nawet markowi producenci jak IBM, Compaq, Hewlett-Packard, Packard Bell wykorzystują przynajmniej niektóre ogólnie dostępne części (np. dyski twarde). Aby być pewnym posiadania pełnej dokumentacji, proponuję sporządzić spis standardowych części i zachować ich oryginalną dokumentację. Jak to zrobić? Najpierw trzeba rozkręcić komputer i spisać wszelkie informacje ze wszystkich części. Jest to praca żmudna, wymagająca czasem porady firmy, która montowała komputer. Większość części, jak twardy dysk, napęd CD-ROM, karty graficzne, karty muzyczne, karty sieciowe, łatwo zidentyfikować. Na obudowie czy karcie powinna być etykieta z nazwą producenta oraz z numerem modelu. Korzystając z tych danych i z listy umieszczonej w Dodatku A znajdziesz producenta. W celu uzyskania dokumentacji danego produktu możesz się z nim skontaktować telefonicznie, faksem lub przez Internet. Płyty główne mogą być trudne do zidentyfikowania, ponieważ nie wszyscy producenci je znakują. W takim przypadku najlepszym wyjściem jest skontaktowanie się ze sprzedawcą komputera. Nie bój się pytać o części, jakie instaluje w sprzedawanych przez siebie komputerach. Jeśli nie będzie potrafił albo nie będzie chciał odpowiedzieć, pamiętaj o tym przy następnym zakupie sprzętu. Jeżeli sprzedawca jest nieznany lub nie może pomóc, przejrzyj całą dokumentację, jaką otrzymałeś wraz z komputerem. Czasem zawiera pewne wskazówki mogące pomóc w określeniu typu płyty głównej. Większość znanych producentów płyt jest wymieniona w Dodatku A. Możesz także skorzystać z wydanej przez MicroHouse książki zatytułowanej Encydopedia of Main Boards (Encyklopedia płyt głównych), zawierającej opisy setek płyt do komputerów osobistych. Znajdziesz tam informacje o ustawieniach przełączników i zworek dla większości dostępnych płyt głównych.
Dla przykładu, jeden z komputerów, na którym pracowałem, składał się z następujących części: Płyta główna:
Intel VS440FX „Ventus"
Karta graficzna:
STB Velocity 3D
Twardy dysk:
Quantum Fireball TM3840A
Napęd dyskietek:
Panasonic JU-256
Napęd CD-ROM:
Mitsumi FX120
Wiele dużych firm montujących komputery, jak Gateway i Dell, używa płyt Intela. Większość dzisiejszych płyt wykorzystuje procesory Intela, lecz nie wszyscy wiedzą, że Intel wytwarza także płyty główne. Gateway nie dołącza oryginalnej dokumentacji płyty głównej Intela lub innych części, lecz dostarcza własne opisy płyty, karty graficznej, twardego dysku i napędu CD-ROM. Kontaktując się z poszczególnymi firmami poprzez Internet lub telefonicznie, uzyskałem dokładniejszą informację o wszystkich produktach. Najczęściej, oryginalna dokumentacja może być ściągnięta ze strony WWW danej firmy; często jest w formacie plików .PDF, które można odczytać używając przeglądarki Acrobat firmy Adobe, dostępnej za darmo na stronie WWW tej firmy.
Nie wszystkie instrukcje są dostępne w Internecie. Poza tym, zawsze wygodniej posiadać wydrukowany oryginalny egzemplarz.
Dokumentacja chipsetów Bardziej dociekliwym polecam dokumentację poszczególnych układów: procesora, chipsetów, BIOS-u, układów wejścia/wyjścia itp. Zanim jednak zaczniesz poszukiwać informacji o tych układach, najpierw musisz je zidentyfikować. Jest to stosunkowo proste. Przejrzyj posiadaną dokumentację, szczególnie płyty głównej. Powinieneś się z niej dowiedzieć, jakie układy znajdują się na płycie, z jakimi procesorami współpracuje i jakich używa układów wejścia/wyjścia. Na podstawie oryginalnej dokumentacji powinieneś zidentyfikować następujące układy: * Procesor * Chipset płyty głównej * ROM BIOS * Układ wejścia/wyjścia * Chipset grafiki Jeśli płyta główna posiada zintegrowaną kartę graficzną w dokumentacji płyty, znajdziesz również opis chipsetu grafiki. Natomiast jeśli posiadasz osobną kartę graficzną, musisz poszukać informacji w dokumentacji tej karty. Najważniejsze układy znajdują się na płycie głównej. Zacznijmy od procesora. Większość komputerów używa procesorów Intela oraz w mniejszości procesorów firm AMD i Cyrix lub procesorów tych firm sprzedawanych pod innymi nazwami. W dokumentacji znajdziesz producenta procesora, jego typ i prędkość. Możesz również zidentyfikować procesor używając programów diagnostycznych, takich jak MSD (Microsoft Diagnostics - dołączany do programu Windows) lub Norton Utilities. Z reguły procesor jest największym układem na płycie i posiada liczne napisy. Czasami zamontowany jest na nim radiator lub mały wentylatorek, tak więc w celu odczytania informacji trzeba je zdjąć. W przypadku opisów umieszczonych na spodzie procesora najlepiej wymontować go razem z radia torem czy wiatraczkiem. Chipsetu płyty głównej niestety nie można zidentyfikować programowo, tak więc pozostaje tylko dokumentacja lub samodzielne sprawdzenie. Składają się one przeważnie z kilku (od dwóch do sześciu) dużych układów. Każdy układ jest oznaczony numerem części (part number), a sam chipset ma nazwę związaną z nazwą głównego układu. Wspomniana wcześniej płyta główna posiada dwa układy oznaczone 82441FX i 82441FX; są one częścią chipsetu 440FX.
Określenie producenta BIOS-u jest proste - jest wymieniony w dokumentacji płyty głównej, a poza tym jego nazwa jest wyświetlana razem z wersją BIOS-u podczas uruchamiania komputera. Większość komputerów używa BIOS-ów firm AMI, Award lub Phoenix, ale są i inni producenci. Prawie wszystkie płyty główne wyprodukowane w latach dziewięćdziesiątych używają specjalnego układu wejścia/wyjścia (super I/O chip). Składa się on z następujących części: *
kontrolerów dysków twardych IDE,
* kontrolera napędu dyskietek, * dwóch portów szeregowych, * jednego portu równoległego. Niektóre układy I/O, jak np. National Semiconductor 87308, zastosowany we wspomnianej płycie głównej, nie zawiera kontrolerów IDE dysków twardych. Układ ten zawiera natomiast kontroler klawiatury 8042 i zegar czasu rzeczywistego MC146818 z trwałą pamięcią CMOS RAM. Inne układy wejścia/wyjścia mogą również zawierać interface joysticka - tzw. gamę port. Posiadając dokumentację tego układu będziesz mógł dokładnie poznać jego możliwości. Kolejnym ważnym chipsetem jest chipset grafiki. Może być umieszczony na karcie graficznej lub na płycie głównej zawierającej zintegrowaną kartą graficzną. Można go zidentyfikować korzystając z dokumentacji lub z programów diagnostycznych (MSD lub Norton Utilities). Jeśli będzie to konieczne, można odczytać jego dane bezpośrednio z chipsetu, będącego zwykle największym układem na karcie graficznej. Przyjrzyjmy się dla przykładu komputerowi Pentium Pro 200 MHz, w którego skład wchodzą: Procesor Chipset płyty głównej ROM BIOS Układ wejścia/wyjścia Chipset grafiki
Intel Pentium Pro Intel 440FX „Natoma" AMI National semiconductor PC87308 S3 Inc. ViRGE/VX
Ponieważ nie jest to płyta ze zintegrowaną kartą graficzną, układy wideo znajdują się na osobnej karcie. Z dokumentacji dowiedziałem się o możliwości zwiększenia częstotliwości zegara do 233 MHz, zwiększając mnożnik na płycie głównej do wartości 3,5x. Uzyskałem również informacje o portach szeregowych i równoległym, o kontrolerze dysku, umieszczonym w układzie wejścia/wyjścia (super I/O chip) oraz o zaawansowanych procedurach konfiguracji CMOS-u. Często jestem pytany o ustawienia Advanced CMOS. Większość sądzi, że będą one opisane w dokumentacji ROM BIOS-u, ponieważ parametry te ustawia się w programie konfiguracyjnym CMOS Setup. Jeżeli jednak skontaktujesz się z producentem BIOS-u lub dokładnie przejrzysz jego dokumentację, odkryjesz, że nie orientuje się on w tych ustawieniach. Tak naprawdę ustawienia te mają niewiele wspólnego z określonym układem ROM BIOS, natomiast ściśle zależą od używanego chipsetu. Tak więc informacji tych należy szukać w dokumentacji chipsetu, którą można uzyskać od jego producenta.
Dokumentacja producenta komputera Jeśli twój komputer pochodzi od markowego producenta, jak IBM, Compaq, HewlettPackard, Toshiba, poszukiwane informacje znajdziesz w stworzonej przez niego dokumentacji. Ze względu na specyficzny rodzaj informacji w niej zawartych, możesz ją uzyskać praktycznie tylko bezpośrednio od niego. Uzyskanie dokumentacji może nie być takie proste. Wprawdzie większość dużych firm posiada sekcje serwisu służące pomocą techniczną, jednak niektóre firmy nie chcą jej udostępniać w celu ochrony działów serwisu (i działów serwisu swoich sprzedawców) przed konkurencją. Nie pozostaje więc nic innego jak bezpośrednio skontaktować się z producentem. W dodatku A znajduje się lista większości znanych producentów komputerów.
Gwarancja i umowa serwisowa Ostatnio w przemyśle komputerowym pojawiła się tendencja do udzielania rozszerzonych gwarancji. Wynika to z silnej konkurencji na rynku, a atrakcyjna gwarancja pozwala niektórym firmom na wyróżnienie się. Choć większość firm oferuje roczne gwarancje, są i takie, które dają gwarancję na trzy i więcej lat. Oprócz wydłużonego czasu gwarancji niektórzy producenci oferują podczas trwania gwarancji darmowy lub bardzo tani serwis u klienta. Podobne usługi proponują również firmy zajmujące się sprzedażą wysyłkową części komputerowych.
Większość firm oferuje wydłużony czas gwarancji i darmowy lub bardzo tani serwis u klienta. Jeżeli wykorzystujesz systemy wymagające pracy przez 24 godziny na dobę (takie jak serwery), możesz zastanowić się nad zawarciem dodatkowej umowy serwisowej. W przypadku zwykłych komputerów jest ona zbyteczna. Umowy serwisowe w większości przypadków nie są potrzebne. Są one jednak dodatkowym źródłem dochodów dla sprzedawcy. Ceny wahają się od 5 do 10 procent wartości zakupionego sprzętu. Kupując np. komputer za 5000 dolarów, musimy liczyć się z kosztami rzędu 250 do 500 dolarów rocznie. Podobnie jak w branży motoryzacyjnej, tak i w przemyśle komputerowym sprzedawcy są przeszkoleni w zakresie oferowania i zachęcania do korzystania z usług serwisowych. Są one jednak niezbędne tylko w szczególnych przypadkach. Ze względu na silną konkurencję na rynku sklepy komputerowe i elektroniczne zarabiają niewiele na sprzedaży komputerów. Oferują jednak różne dodatki, jak usługi serwisowe, filtry sieciowe, podkładki pod myszy itp., na których rzeczywiście zarabiają. Wysoka cena usług serwisowych może również wpływać na ich jakość. Praca specjalisty może wydawać się bardziej skomplikowana niż jest w rzeczywistości, aby usprawiedliwić koszt usługi. I tak, może on wymienić twardy dysk lub płytę główną, podczas gdy należało tylko sformatować dysk lub wymienić moduł pamięci. Ten niby-uszkodzony dysk zostanie i tak sformatowany, aby w końcu trafić do komputera kogoś innego. Wymiana części jest szybsza i pozostawia wrażenie, że cena, jaką płaci się za usługę, nie jest wysoka, ponieważ otrzymujemy „nową" część. O wiele mniejsze wrażenie wywiera zwykła procedura diagnostyczna, wymiana kabla za 2 dolary lub trwające 15 minut formatowanie twardego dysku.
Posiadając trochę doświadczenia w diagnozowaniu komputerów, kilka podstawowych narzędzi i części zamiennych, można uniknąć kosztownych umów serwisowych. Niestety, niektóre firmy oferują nieuczciwe usługi. Każe się wierzyć użytkownikowi, że to typowe uszkodzenia, podważając jednocześnie zaufanie co do jakości komputerów. Jeśli posiadasz dużo komputerów, możesz również stworzyć magazyn części zamiennych, co pozbawi cię konieczności zawierania umów serwisowych. Dla 5 do 10 komputerów możesz kupić jeden komputer zapasowy za cenę rocznej umowy serwisowej. Jest to opłacalne w przypadku posiadania więcej niż 10 komputerów tej samej marki. W przypadku komputerów wymagających pracy ciągłej jak serwery) możesz po prostu zakupić dodatkowy serwer. Musisz tylko przeliczyć, co jest bardziej opłacalne - usługi serwisowe czy dodatkowy komputer. Czasami zawieranie umów serwisowych jest jednak nie tylko konieczne, ale i opłacalne. Dotyczy to komputerów drogich, pracujących w trybie ciągłym (firmy nie stać na zakup drugiego identycznego) lub komputerów pracujących w znacznej odległości od głównej siedziby firmy. Zanim zawrzesz umowę serwisową, zastanów się, kogo wybrać: * Producenta * Sprzedawcę * Firmę serwisową Chociaż większość wybiera producenta lub sprzedawcę, umowy zawarte z firmami serwisowymi wcale nie muszą być gorsze. Zdarza się również, że producent nie prowadzi serwisu lub podpisuje umowy na serwis swoich komputerów ze specjalizującą się w tym firmą. Gdy wybierzesz firmę, będziesz musiał zdecydować, jaki rodzaj usługi wybrać. Oto najczęściej oferowane: * serwis u klienta z czterogodzinnym czasem reakcji (usługa najdroższa) * serwis u klienta z 24-godzinnym czasem reakcji * serwis tylko w firmie serwisowej Zakres usług zależy od firmy. I tak, IBM oferuje tylko serwis u klienta 24 godziny na dobę, 7 dni w tygodniu. Dodatkowo zapewnia, że serwisant zostanie wysłany w ciągu 4 godzin od zgłoszenia. Dla starszych systemów (oprócz PS/2) oferuje również serwis kurierski. Podczas trwania gwarancji zwykła umowa serwisowa (z dostarczeniem uszkodzonego sprzętu do serwisu IBM), może być rozszerzona za 40 dolarów do pełnej umowy na serwis u klienta. Po roku umowa wygasa i można j ą kontynuować, ale już na ogólnych warunkach. Jeśli będziesz kiedykolwiek zawierać umowy serwisowe, zdziwisz się ich cenami. W większości są tak wysokie, że opłacają się tylko dla ważnych funkcjonalnie komputerów, jnp. serwery.
Rozdział 3
Demontaż i konserwacja komputera W rozdziale tym przedstawimy procedury demontażu komputera, niezbędne do tego narzędzia i opiszemy różne części składowe. Omówimy także sprzęt testowy używany do diagnozowania komputera. Omówimy problemy, jakie możesz mieć ze śrubkami, nakrętkami, paskami itp.
Właściwe narzędzia Do diagnozowania i naprawy komputera potrzeba kilku podstawowych narzędzi. Dla profesjonalistów istnieje duży wybór narzędzi specjalistycznych. Pozwalają one na szybsze, prostsze i dokładniejsze diagnozowanie komputera. A oto i ich podstawowa lista: * Proste narzędzia do demontażu, jak płaskie i krzyżowe wkrętaki (małej i średniej wielkości), pinceta, przyrząd do wyciągania układów scalonych, hemostat * Oprogramowanie diagnostyczne * Woltomierz i omomierz * Środki chemiczne (sprężone powietrze w sprayu, ochładzacze w sprayu) * Szmatki * Małe druciki do związywania i układania kabli
Można również zaopatrzyć się w dodatkowy sprzęt, ale nie jest on konieczny do większości prac diagnostycznych: * Urządzenia do testowania pamięci SIMM, DIP i innych * Specjalne wtyczki do testowania portów szeregowych i równoległych * Skaner kabli sieciowych * Urządzenie do testowania kabli szeregowych (breakout box) Dla bardziej zaawansowanych, w następnej części omówimy lutownice do naprawy kabli. Oprogramowanie i urządzenia diagnostyczne zostaną omówione w rozdziale 22.
Podręczne narzędzia Narzędzia potrzebne do najczęstszych prac związanych z naprawą komputera są bardzo proste i niedrogie. Możesz je przechowywać w małym pudełku. Koszt zestawu narzędzi waha się od 20 dolarów za mały zestaw do ok. 500 dolarów za zestaw wielkości teczki. Możesz porównać te ceny z cenami narzędzi niezbędnych mechanikowi. Musi on wydać od 5 do 10 tyś. dolarów. Poza tym praca przy naprawie komputera jest o wiele czystsza niż naprawa samochodu. W tej części zapoznasz się z narzędziami do podstawowych prac przy komputerze. Jednym z najlepszych zakupów na początek jest kupno zestawu przeznaczonego specjalnie do naprawy komputerów.
A oto lista narzędzi z prostego zastawu za 20 dolarów: * Klucz 3/16" * Klucz 1/4" * Mały wkrętak krzyżowy * Mały wkrętak płaski * Średni wkrętak krzyżowy * Średni wkrętak płaski * Przyrząd do wyciągania układów scalonych * Przyrząd do wkładania układów scalonych * Pinceta * Szczypce * Wkrętak typu Torx T 10 T15 Niektóre narzędzia posiadają ograniczone zastosowanie. Jednak są standardowo umieszczane w takich zestawach. Polecam używanie kluczy sześciokątnych przy rozkręcaniu obudowy, kart rozszerzeń, dysków, zasilacza i głośnika. Lepiej się nimi pracuje niż zwykłymi wkrętakami. Ponieważ część producentów zastąpiła wkręty z łebkiem sześciokątnym wkrętami krzyżowymi, można również używać wkrętaka. Pracując nad wnętrzem tak ciasnego urządzenia, jakim jest komputer, wygodnie jest użyć śrubokrętów z magnetycznymi czubkami. Jednak mogą one spowodować efekty uboczne. Mianowicie pole magnetyczne wytwarzane przez owe narzędzia może uszkodzić zapis na dyskach miękkich oraz skutecznie przeszkodzić w pracy dysku twardego. Narzędzia do wyjmowania i wkładania układów scalonych są w dzisiejszych czasach rzadko używane. Kości pamięci są montowane na płytkach SIMM oraz DIMM, a procesory używają gniazd ZIF (Zero Insertion Force) lub innych przyłączy. Gniazdo ZIF jest wyposażone w dźwignię, która zwalnia zacisk procesora, umożliwiając jego proste wyjęcie. Jednak, gdy nadarzy się konieczność pracy ze starszym sprzętem, polecam do wyciągania i wkładania modułów pamięci i innych małych układów specjalne urządzenie do wyciągania układów z podstawek. W przypadku większych układów, jak niektóre procesory i układy ROM, można użyć małego wkrętaka. Większe procesory, jak 486, Pentium, Pentium Pro, jeżeli znajdują się w gnieździe LIF (Low Insertion Force), wymagają użycia tego narzędzia. Układy te posiadają tak dużo nóżek, że aby je wymontować, trzeba w to włożyć dużo siły, pomimo że znajdują się w gnieździe LIF. Jeżeli użyjesz wkrętaka do wymontowania dużego układu, ryzykujesz jego uszkodzenie. Urządzenie do demontażu posiada szeroki koniec z ząbkami, które wchodzą między nóżki procesora powodując równomierne rozłożenie nacisku na spód układu. Minimalizuje to prawdopodobieństwo jego uszkodzenia. Większość takich urządzeń przeznaczona jest tylko do danego typu procesora. Do przytrzymywania małych śrubek i zworek, które trudno trzymać w palcach, najlepsze są pinceta i szczypce. Szczypce są szczególnie przydatne, jeżeli jakaś mała część wpadnie do środka komputera; ułatwiają jej wydobycie bez konieczności całkowitego rozkręcania komputera. Klucz typu Torx to specjalny klucz do śrub używanych przez Compaqa i innych producentów.
Potrzebne mogą być również następujące narzędzia: * Szczypce * Hemostat * Przecinak do kabli i obcinarka izolacji * Imadło lub zaciskacz * Pilnik * Mała latarka Hemostat to narzędzie szczególnie przydatne do wyciągania małych części, takich jak zworki. Szczypce przydają się do prostowania pinów, wkładania i wyciągania zworek, wyginania kabli lub wyciągania małych części; przecinaki do kabli i obcinarki do izolacji - przy pracy z kablami; metryczne klucze nasadowe - w przypadku komputerów używających śrub metrycznych; pilnik - do wygładzania ostrych metalowych krawędzi; latarka - przy pracach w słabo oświetlonych pomieszczeniach, zwłaszcza jeżeli wewnątrz komputera nie ma dużo wolnej przestrzeni. Czasami może być niezbędny specjalny klucz typu Torx, z otworem do śrub Torx z zabezpieczeniem (posiadają dodatkowy bolec i nie da się ich odkręcić zwykłym kluczem Torx). Przy montowaniu złączy na kablach lub wyginaniu kabli, a także do przytrzymania małych części przy precyzyjnych czynnościach, niezbędne jest imadło. Firma Radio Shack sprzedaje także urządzenie składające się z dwóch ruchomych ramion zakończonych szczękami. Jest to bardzo użyteczne narzędzie przy pracach z kablami oraz gdy brakuje ci dodatkowej pary rąk np. do przytrzymywania. Polecam również zakup zestawu elektrostatycznego. Składa się on z opaski na nadgarstek i specjalnej maty przewodzącej. Używając go zabezpieczasz się przed przypadkowym ładunkiem statycznym. Stosowanie zestawu antyelektrostatycznego nie jest konieczne, wymaga to jednak pewnej samodyscypliny. Komputer powinien być podłączony do zasilania tak, aby obudowa była uziemiona. Da to możliwość uziemienia samego siebie przez położenie ręki na obudowie. Wszystkie wymienione tu narzędzia są ogólnie dostępne. Najbardziej znane firmy zajmujące się sprzedażą narzędzi do serwisu komputerów to Specialized Products Company i Jensen Tools. Ich katalogi zawierają olbrzymi wybór wysokiej jakości narzędzi. Posiadając podręczny zestaw narzędzi, będziesz mógł przeprowadzić dowolną naprawę czy instalację komputera. Ogólny koszt takiego zestawu (o szerokim zastosowaniu) nie jest wysoki, wynosi około 150 dolarów.
Lutowanie Nieodzownym narzędziem przy naprawie przeciętego kabla, mocowaniu elementu na płycie, wymianie układu scalonego nie umieszczonego w podstawce, jest lutownica. Większość napraw wykonuje się wymieniając całą uszkodzoną płytę, jednak przy drobnych uszkodzeniach, takich jak wyrwanie gniazda klawiatury z płyty głównej, lutownica może okazać się przydatna. Nowsze płyty główne mają wbudowane porty równoległe i szeregowe. Są one z reguły wyposażone w bezpiecznik mający chronić płytę przed zewnętrznymi urządzeniami ładunkiem statycznym. Jest to zwykle mały element wlutowany w płytę. W razie jego uszkodzenia wystarczy użyć lutownicy i wymienić go.
Przy drobnych naprawach najlepsza jest lutownica o małej mocy (np. 25 W). Lutownice powyżej 30 W generują zbyt dużo ciepła, co może uszkodzić elementy na płycie. Ze względu na ciepło, nawet używając lutownicy 25 W, trzeba obchodzić się z nią bardzo ostrożnie, podgrzewając tylko określone miejsca i tylko tak długo, jak to jest niezbędne. Można również użyć urządzenia pochłaniającego ciepło. Umieszcza się je przy wyluto-wywanym elemencie tak, aby mogło absorbować ciepło. W tym celu można również użyć hemostatu. Przy wylulowywaniu elementów z płytki drukowanej przydatna jest odsysarka. Jest to metalowa tuba z tłokiem i sprężyną. Wylutowanie elementu z użyciem odsysarki polega na podgrzaniu miejsca łączenia elementu lutownicą, a kiedy cyna się roztopi, należy przystawić odsysarkę i zwolnić sprężynę tak, aby cyna została wciągnięta do środka tuby. Obie te czynności (podgrzewanie i odsysanie) należy wykonywać od dołu płyty, a nie po stronie elementów i powtarzać je dla wszystkich połączeń danego układu z płytą. Po opanowaniu tej techniki wymontowanie elementu zajmuje tylko chwilę, z małym prawdopodobieństwem uszkodzenia płyty lub jej elementów. Przy większych układach może to być trudniejsze.
Powyższe procedury przeznaczone są dla elementów, których piny przechodzą na drugą stronę płytki. W przypadku montażu powierzchniowego niezbędne są o wiele droższe narzędzia, do kupienia jedynie w wyspecjalizowanych sklepach. Jeśli chcesz nabrać wprawy w posługiwaniu się lutownicą, musisz trochę poćwiczyć. Weź niepotrzebną płytkę i wymontuj z niej elementy, a następnie wlutuj je z powrotem. Staraj się podgrzewać punkty tylko tak długo, jak to jest konieczne. Przed wlutowaniem elementu przygotuj otwory, aby można było w nie włożyć dany element. Staraj się, aby twoje połączenia wyglądały jak fabryczne, unikaj tzw. „zimnych lutów" powstających w przypadku niedostatecznego podgrzania cyny i nie próbuj testować swoich zdolności lutowniczych na właśnie naprawianej płycie głównej.
Podczas nauki lutowania pamiętaj o dobrym rozgrzaniu cyny aż do jej roztopienia. Gdy cyna nie topi się po przyłożeniu lutownicy, oznacza to, że kolba lutownicy jest zabrudzona. Wyczyść kolbę używając nawilżonej gąbki. Jeżeli to nie pomoże, zeskrob osad na kolbie lutownicy metalowym narzędziem, po wcześniejszym jej nagrzaniu. Jednak nie wszystkie prace można wykonać samodzielnie, np. w przypadku montażu powierzchniowego czy układów o dużej gęstości pinów, które wymagają specjalnych narzędzi. Kiedyś w komputerze IBM P75 wymieniałem procesor 486DX/33 na 486DX2/66. Jest to stosunkowo prosta operacja (zwłaszcza dla płyt z gniazdem ZIF), ale 168-pinowy procesor był umieszczony na specjalnej dwustronnej karcie wykonanej w technologii montażu powierzchniowego. Było to bardzo trudne przedsięwzięcie wymagające specjalnego urządzenia zwanego hot air rework station. Używa ono strumienia ciepłego powietrza kierowanego na wszystkie piny jednocześnie. Podczas wylulowywania procesor był osłonięty specjalną taśmą pochłaniającą ciepło. Po włożeniu procesora 486DX2/66 na piny nałożono specjalną pastę lutowniczą i znowu jednocześnie podgrzano 168 pinów.
Tylko wykorzystanie profesjonalnego urządzenia pozwoliło na wykonanie tej skomplikowanej operacji tak, że montaż wyglądał jak fabryczny. Próbując zrobić to samo przy użyciu konwencjonalnych narzędzi, najprawdopodobniej uszkodziłbym drogie procesory oraz znacznie droższą wielowarstwową kartę procesora.
Przyrządy testowe Testowanie wymaga czasami specjalnych urządzeń. Nie są one drogie ani skomplikowane w użyciu, a mogą znacznie zwiększyć możliwości diagnostyczne. Jednym z nich jest woltomierz. Zamiast niego można się zaopatrzyć w miernik uniwersalny, którym możemy m.in. mierzyć napięcie, sprawdzać przejścia w układach lub kablach. Nieocenionym przyrządem może też być tester gniazd przydatny przy problemach nie związanych bezpośrednio z komputerem, np. przy sprawdzaniu prawidłowości podłączenia kabli w gniazdkach.
Wtyczki pętlowe (Loopback Connectors) Wtyczek pętlowych (loopback connectors) używamy do testowania portów szeregowych i równoległych. Ich budowa umożliwia portom przesyłanie danych do samych siebie w celu diagnozowania. Jest kilka typów takich wtyczek: 25-pinowa i 9-pinowa dla portów szeregowych oraz 25pinowa dla portu równoległego (patrz tabela 3.1). Są one wytwarzane przez wielu producentów, m.in. przez IBM, który oferuje też specjalną wersję zawierającą wszystkie trzy typy w jednej wtyczce; kosztuje ona ok. 30 dolarów. Tabela 3.1. Wtyczki testowe Opis
Numer części IBM
Wtyczka dla portu równoległego
8529228
Wtyczka dla portu szeregowego, 25-pinów
8529280
Wtyczka dla portu szeregowego, 9-pinów
8286126
Wtyczka trój złączowa
72X8546
Większość zestawów diagnostycznych (szczególnie te polecane przeze mnie) zawiera wszystkie trzy typy wtyczek. Możesz je również wykonać samodzielnie. W rozdziale 11. „Porty komunikacyjne i sieci komputerowe" przedstawiłem schemat połączeń dla tych wtyczek. Omówiłem również dokładnie problemy związane z portami szeregowymi i równoległymi. Oprócz zwykłej wtyczki pętlowej możesz użyć przyrządu do testowania kabli szeregowych (breakout box). Posiadają one zwykle złącze 25-pinowe (DB25), które umożliwi ci monitorowanie sygnału w kablu.
Mierniki Często, przy poszukiwaniu usterek, konieczne jest zmierzenie napięcia lub oporności. Można to zrobić za pomocą cyfrowego miernika uniwersalnego. Posiada on dwa kable (próbniki) podłączone do wejść miernika i w zależności od ustawienia można nim mierzyć oporność, napięcie stałe i zmienne. Zwykle, dla każdego rodzaju pomiaru jest kilka zakresów, np. pomiary napięcia stałego można odczytywać wybierając zakresy 200 mV, 2 V, 20 V, 200 V, 1000 V. Ponieważ komputery wykorzystują napięcia +5 i +12 woltów, powinieneś wybrać zakres 20 V.
Wybierając zakres 200 mV lub 2 V można uszkodzić miernik, bo napięcie jest znacznie wyższe od oczekiwanego. Jeśli użyjemy zakresu 200 V lub 1000 V, nasze odczyty będą mniej dokładne. Jeśli nie jesteś pewien, jakiego napięcia się spodziewać, zacznij od najwyższego zakresu. Większość lepszej jakości mierników posiada automatyczne wybieranie zakresu, tzn. że miernik sam ustawia najodpowiedniejszy zakres dla danego pomiaru. Są one znacznie prostsze w obsłudze. Wystarczy tylko wybrać, co chcesz mierzyć, a miernik sam wybierze odpowiedni zakres i wyświetli wartość pomiaru. Tego typu mierniki posiadają zawsze cyfrowy wyświetlacz.
Podczas pomiarów napięć sieciowych zawsze rób to jedną ręką, nigdy dwoma. Albo przymocuj jeden z próbników do jednego z punktów pomiarowych, a drugim testuj napięcie, albo trzymaj obydwa próbniki w jednej ręce. Trzymając każdy z próbników w osobnej ręce możesz nagle stać się częścią obwodu elektrycznego, powodując przepływ prądu przez samego siebie. Kiedy prąd płynie z jednej ręki, przechodzi dokładnie przez serce. Może to doprowadzić do zatrzymania pracy serca. Osobiście wolę małe mierniki cyfrowe; są one niewiele droższe od analogowych, ale za to bardzo dokładne i znacznie bezpieczniejsze dla układów cyfrowych. Niektóre są wielkości kasety magnetofonowej, tak więc bez problemu mieszczą się w kieszeni koszuli. Firma Radio Shack sprzedaje za ok. 25 dolarów cyfrowe mierniki produkcji Beckmana z automatycznym wyborem zakresu. Mają one trochę ponad centymetr grubości i ważą ok. 100 g. Są niezastąpione przy diagnozowaniu komputera.
Mierniki analogowe mogą być niebezpieczne dla układów cyfrowych. Ze względu na zasilanie z baterii 9 V, podczas pomiarów oporności mogą spowodować uszkodzenia elementów, jako że wtedy podawane jest to 9-woltowe napięcie na obwody. Mierniki cyfrowe nie są tak niebezpieczne, gdyż najczęściej są zasilane z baterii 3-5 V.
Próbniki logiczne i impulsatory logiczne W układach cyfrowych sygnał jest reprezentowany przez wysoki (5 V) lub niski (O V) poziom napięcia. Ponieważ dany stan jest obecny tylko przez krótki czas (rzędu milionowych części sekundy) albo oscyluje z dużą częstotliwością, zwykły woltomierz jest tu bezużyteczny. Do pomiarów takich sygnałów najlepiej nadaje się próbnik logiczny. Próbniki logiczne najlepiej sprawdzają się w przypadku uszkodzonych układów. Korzystając z próbnika określisz, czy działa układ zegara, czy są obecne inne sygnały niezbędne do pracy komputera, sprawdzisz sygnały na każdym pinie układu scalonego. Otrzymane wyniki porównaj z wynikami pomiarów dla sprawnego układu. Przy użyciu próbnika logicznego możesz zbadać niektóre problemy związane z pracą twardego dysku, np. sprawdzić poziomy sygnałów na kablu interfejsu lub na płytce drukowanej dysku. Oprócz próbnika, do badania układów cyfrowych, możesz wykorzystać impulsator logiczny. Jest to przyrząd służący do testowania odpowiedzi układu na podanie impulsu (+5 V) trwającego zwykle od 1,5 do 10 mikrosekund. Wynik ocenisz przez porównanie z testami sprawnego układu. Impulsatory są wprawdzie rzadziej stosowane niż próbniki, niemniej w niektórych przypadkach mogą okazać się niezastąpione.
Testery gniazd Testery gniazd to proste, niedrogie przyrządy do testowania gniazd elektrycznych. Można je dostać w każdym sklepie elektronicznym. Po prostu wkładasz je do gniazda, a trzy diody LED świecąc w różnych kombinacjach wskazują, czy połączenia przewodów w gnieździe są prawidłowe. Wydawałoby się, że złe połączenie przewodów w gnieździe powinno być rzadkim przypadkiem. Ja jednak często się z nim spotykam. Z reguły problem dotyczy kabla uziemiającego. Nieprawidłowe połączenie gniazda objawia się nieoczekiwaną pracą komputera, błędami parzystości czy „zawieszaniem się" komputera. Niewłaściwe uziemienie może być nawet przyczyną utraty danych. System komputerowy wykorzystuje poziom napięcia uziemienia, by ustalić, czy dany sygnał to logiczne O czy 1. Kiedy prowadziłem zajęcia z diagnozowania, komputer bez przerwy „zawieszał" się, gdy się do niego zbliżałem. Gdy przechodziłem obok komputera, pole elektrostatyczne generowane przez moje ciało oddziaływało na komputer i powodowało jego „zawieszanie". Wyświetlany był też komunikat o błędzie parzystości. Powodem było złe uziemienie i jedynym sposobem uniknięcia zawieszania się komputera było prowadzenie zajęć... na bosaka, ponieważ to właśnie moje skórzane buty wytwarzały ładunek statyczny. Innym objawem złego podłączenia kabla uziemiającego w gniazdach są lekkie „kopnięcia", jakich można doświadczyć dotykając obudowy komputera. Przyczyną jest prąd płynący tam, gdzie płynąć nie powinien. Podobny problem może powstać przez złe uziemienie któregokolwiek innego podzespołu. Używając testera można stwierdzić, czy przyczyna leży po stronie któregoś gniazda. Jeśli przy dotknięciu komputera poczujesz „kopnięcie", najprawdopodobniej jest to ładunek statyczny. Spróbuj dotknąć go ponownie bez odrywania stóp od podłoża. Jeśli znowu „kopnie", oznacza to coś poważniejszego, może nawet podłączenie obudowy do napięcia. W takim przypadku najlepiej wezwać elektryka. Jeśli nie chcesz być królikiem doświadczalnym, zmierz napięcia w gniazdach. Pamiętaj, aby trzymać oba kable w jednej ręce. Najpierw zmierz napięcie pomiędzy przewodami fazowymi; powinno wynosić 220-230 V. Potem między jednym przewodem fazowym a uziemieniem, a następnie między drugim przewodem fazowym a uziemieniem. Jeden z tych odczytów powinien być taki jak dla przewodów fazowych, a drugi - mniejszy niż 0,5 V. Ponieważ uziemienie i przewód neutralny powinny być połączone w panelu elektrycznym (electrical panel), napięcie większe od 0,5 V wskazywałoby, że jednak nie są. Jeżeli napięcie nieznacznie odbiega od tej wartości, może to wynikać z faktu przepływu prądu w przewodzie neutralnym i braku napięcia na uziemieniu. Jeśli nie będziesz zadowolony ze swoich pomiarów, poproś elektryka. Większość niewyjaśnionych problemów z pracą komputera wynika z niewłaściwego uziemienia i innych kłopotów z zasilaniem.
Testery pamięci Dla bardziej zaawansowanych w diagnozowaniu i naprawianiu komputerów niezbędnym przyrządem będzie tester pamięci. Jest to mały przyrząd do testowania nie tylko modułów SIMM, DIMM, ale i pojedynczych kości pamięci, jak na przykład kości cache. Jest niestety drogi (od 1000 do 2500 dolarów), ale to jedyny przyrząd, którym można dokładnie przebadać pamięć.
Bez niego jest się skazanym na sprawdzanie pamięci programami diagnostycznymi. Programy mogą jednak tylko zapisywać i odczytywać dane z pamięci, tester potrafi znacznie więcej: * Określić typ pamięci, * Określić prędkość pamięci, * Określić, czy pamięć posiada bit parzystości, czy wykorzystuje emulację parzystości, * Zmienić czas odświeżania i czas dostępu, * Zlokalizować błędy w pojedynczym bicie, * Wykryć błędy wynikające z zasilania i zakłóceń, * Wykryć zwarcia i braki połączeń, * Wykryć problemy związane z synchronizacją, * Wykryć problemy z przechowywaniem danych. Żaden program diagnostyczny nie ma takich możliwości; przy testowaniu pamięci musi korzystać z parametrów ustawionych przez kontroler pamięci umieszczony w chipsecie płyty głównej. Zapobiega to programowym zmianom czasu i metod dostępu do pamięci. Możesz natrafić również na problemy prawie nie do wykrycia, polegające na tym, iż układy pamięci w jednym komputerze pracują poprawnie, a w innym nie. W zasadzie nie ma sposobu dokładnego przetestowania pamięci zamontowanej na płycie głównej. Tester pamięci SIMM jest niezbędny przy dokładnych testach pamięci. Przy cenach pamięci 32 MB mniejszych od 50 dolarów, zakup testera jest usprawiedliwiony w przypadku pracy w serwisie, w którym naprawia się wiele komputerów. Obecnie systemy komputerowe są wyposażane w coraz to większe ilości pamięci, a z drugiej strony, coraz to szybszy dostęp do informacji w niej zawartych wymusza coraz dokładniejsze jej badanie i odrzucanie kości, które nie spełniają wymogów dzisiejszej techniki. Jednym z polecanych przeze mnie testerów jest SIGMA LC, wytwarzany przez Dark-horse Systems. W rozdziale 7. „Pamięć komputera" zajmiemy się pamięcią bardziej szczegółowo.
Środki chemiczne Środków chemicznych używa się do czyszczenia, diagnozowania i naprawy komputera. Jednym z najbardziej przydatnych do prostych czynności (jak czyszczenie elementów, styków) był trójchloroetan (1,1,2-trichloroetan). Jest bardzo skuteczny, nie uszkadza plastiku i samych płyt. Można go też używać do usuwania plam z obudowy komputera i klawiatury. Został zastąpiony, ponieważ uznano go za rozpuszczalnik chlorowany, podobnie jak freon (związki fluorochlorowęglowe). Jednym z najlepszych środków jest stabilant 22 - najskuteczniejszy produkt tego typu. Jest to ciekły polimeryczny półprzewodnik. Zachowuje się jak ciekły metal; jest przewodnikiem. Wypełnia szpary między elementami zwiększając powierzchnie połączenia oraz usuwa tlen i inne związki mogące powodować korozję. Środek ten jest dostępny w kilku rodzajach: stabilant 22 (zagęszczony), stabilant 22a (stabilant 22 rozcieńczony isopropanolem w stosunku 4:1), Tweek (rozcieńczony w stosunku 8:1). 15 ml stabilanta 22a kosztuje 40 dolarów, podczas gdy litr stabilanta 22 - 4000 dolarów. Jak widać, stabilant 22 jest raczej drogi, ale zużywa się go niewiele i naprawdę jest niezastąpiony w konserwowaniu styków elektrycznych (używa go nawet NASA). Jak twierdzi producent, D.W.Electrochemicals, stosowanie stabilantu 22 daje ochronę na 16 lat.
Stabilant daje najlepsze rezultaty przy czyszczeniu wszelkiego rodzaju styków i gniazd; smarowanie stykających się powierzchni ułatwia wkładanie i wyciąganie kart, łączenie i rozłączanie wtyków. Do czyszczenia często wykorzystuje się sprężone powietrze. Z reguły jest to freon lub dwutlenek węgla. Używa się ich do wydmuchiwania kurzu i innych zanieczyszczeń. Należy jednak zachować pewną ostrożność, gdyż niektóre ze środków użytych jako medium mogą w chwili opuszczania pojemnika powodować powstanie ładunków statycznych. Używaj tylko produktów przeznaczonych do czyszczenia sprzętu komputerowego i, jeżeli posiadasz, używaj opaski uziemiającej podczas czyszczenia. Duży ładunek jest tworzony przez freon TF, natomiast mniej groźny jest freon R12. Ponieważ freony niszczą warstwę ozonową, większość producentów wycofuje się z ich wytwarzania, na rzecz nowych produktów opartych na dwutlenku węgla lub innym, mniej szkodliwym związku. Używając sprężonego powietrza należy trzymać pojemnik pionowo, tak aby uchodził z niego tylko gaz. Jeśli go przechylisz, może się z niego wydostać propelent pod postacią zimnej cieczy. Jest to nie tylko marnotrawstwo, ale także potencjalna przyczyna uszkodzenia sprzętu komputerowego i nie tylko. Przy tych czynnościach należy odłączać napięcie od czyszczonych urządzeń, aby zminimalizować możliwość uszkodzeń przez zwarcia. Jeśli używasz środków zawierających sprężony freon R12, unikaj otwartego ognia lub źródła ciepła. Przy spalaniu freonu R12 wydziela się wysoce toksyczny gaz - fozgen - używany podczas pierwszej wojny światowej jako gaz bojowy. Freon R12 do 1995 roku był używany w większości samochodowych układów klimatyzacji. Zwróć uwagę, że pracownicy serwisu nigdy nie palą papierosów przy naprawie tych układów. Od 1996 produkcja i stosowanie tego typu związków zostały albo znacznie ograniczone, albo zabronione przez rząd. Wynaleziono nowe środki o podobnych właściwościach, np. R-134a; są one jednak znacznie droższe od freonu. Obok sprężonego powietrza wykorzystuje się oziębiacz w sprayu. Środek ten nie naprawia, ale ułatwia znalezienie uszkodzonego układu. Często poważne problemy wynikają z przegrzania; środek ten ochładza układ przywracając mu normalne warunki pracy. Jeżeli teraz będzie pracować normalnie, oznacza to, że jest uszkodzony.
Śrubki, nakrętki i inne drobiazgi Omówimy teraz problemy związane z drobnym osprzętem, takim jak śrubki, nakrętki, paski, wykorzystywanym przy montażu komputera. Demontaż komputerów utrudnia różnorodność śrubek i nakrętek. Większość komputerów posiada śrubki przykręcane sześciokątnym kluczem 1/4" lub 3/16". IBM używał ich pierwotnie we wszystkich swoich komputerach PC/XT i AT, większość producentów komputerów osobistych też ich używa. Ale np. Compaq wykorzystuje śrubki typu Torx - śrubki z gwieździstym łepkiem, do przykręcania których stosuje się klucz Torx odpowiedniego rozmiaru: T-8, T-9, T-10, T-15, T-20, T-25, T-30, T-40 itd. Odmianą śrubek typu Torx są śrubki zabezpieczone, wykorzystywane głównie w zasilaczach. Wyglądają prawie identycznie jak standardowe, ale posiadają dodatkowy bolec na środku łepka. Zabezpiecza to przed jej odkręceniem zwykłym kluczem; potrzebny jest klucz ze specjalnym otworem. Można również użyć małego dłuta do wybicia tego bolca. Zwykle są one używane w podzespołach, które są otwierane rzadko albo wcale. Wielu producentów stosuje bardziej standardowe śrubki przykręcane płaskimi lub krzyżowymi wkrętakami. Są one proste w użyciu, jednak nie trzymają się tak dobrze główki śrubki i łatwo o ich trwałe uszkodzenie. W przypadku najtańszych wersji takich śrubek może
nawet dochodzić do ścierania kawałków metalu, które mogą dostać się na płytę główną. Jeżeli masz wybór, nie stosuj takich śrubek; problemy, jakie stwarzają, nie są tego warte. Niektórzy producenci wytwarzają obudowy samomocujące lub używają śrubek motylkowych. Nie wymagają one żadnych narzędzi przy demontażu. Firma Curtis sprzedaje plastikowe śrubki motylkowe, pasujące do większości obudów. Jednak w środku komputera powinieneś stosować zwykłe metalowe śrubki, jako że zapewniają one uziemienie mocowanym podzespołom.
System calowy i metryczny Następną trudność przy demontażu sprawia występowanie dwóch standardów gwintowania: calowego i metrycznego. IBM wykorzystuje system calowy, natomiast większość innych producentów - metryczny. Amerykańscy producenci dysków twardych używają czasami śrubek w systemie metrycznym; dyski wytwarzane w Japonii czy na Tajwanie zwykle posiadają śrubki calowe. Jeżeli chcesz wymienić napęd w starszym komputerze, możesz mieć problem - właściwe śrubki trudno dostać. Na szczęście, wielu producentów dołącza je do kupowanego dysku. W dokumentacji znajdziesz położenie otworów i rozmiar gwintu. Przy montażu dysków stosuje się oba rodzaje śrubek; większość jednak wykorzystuje śrubki metryczne. W niektórych przypadkach może być istotna długość śrubki, szczególnie przy mocowaniu twardych dysków. Używając zbyt długiej śrubki możesz uszkodzić dysk, jeżeli przy dokręcaniu do końca przebijesz się przez jego obudowę. Przy instalowaniu nowego napędu upewnij się, że posiadasz śrubki odpowiedniej długości, a jeżeli masz wątpliwości, sprawdź w dokumentacji.
Jak zdemontować komputer Nie jest to specjalnie skomplikowane. Ponieważ producenci stosują określone standardy, mamy do czynienia tylko z kilkoma rozmiarami śrubek. Również ułożenie poszczególnych podzespołów jest podobne u różnych producentów. Poza tym, współczesny komputer nie składa się z tak wielu części. Zajmiemy się teraz następującymi podzespołami: * Obudowa * Karty rozszerzeń * Napędy * Zasilacz * Płyta główna Omówimy, jak zainstalować i wymontować dany element. Większość komputerów można rozpoznać po obudowie. Komputery AT wykorzystują obudowy typu „wieża", natomiast komputery XT - obudowy typu „slim-line". Procedury montażu i demontażu w przypadku obu typów komputerów są podobne.
Przygotowanie Przede wszystkim przygotuj się na ochronę przed ładunkiem statycznym, zapamiętaj lub zanotuj konfigurację komputera od strony fizycznej (ustawienia przełączników i zworek, orientacja kabli), jak i logicznej (np. ustawienia pamięci CMOS).
Ochrona przed ładunkiem elektrostatycznym Kiedy pracujesz z elementami znajdującymi się wewnątrz komputera, musisz uważać, aby przypadkowo nie doprowadzić do wyładowania (twoje ciało może przenosić znaczny ładunek elektrostatyczny) w pobliżu elementu. Zanim dotkniesz czegokolwiek, połóż jedną rękę na metalowym szkielecie komputera, co spowoduje wyrównanie twojego potencjału z potencjałem komputera. Pamiętaj, aby komputer był podłączony do sieci. Dzięki temu ewentualny ładunek statyczny przepłynie przez komputer do ziemi. Z tego powodu czasem zaleca się pozostawienie komputera włączonego do sieci podczas naprawy. Jednakże w niektórych nowocześniejszych systemach układy zasilania ATX oraz NLX zapewniają stałe napięcie +5 V, czy komputer jest włączony i pracuje, czy nie. To napięcie może być niebezpieczne. Dlatego w tym wypadku lepiej odłączyć komputer od sieci - a samemu znaleźć sobie inne źródło uziemienia. W profesjonalnych zakładach serwisowych uziemia się stoły, na których dokonuje się naprawy komputerów. Natomiast Ty musisz się zadowolić przewodem zasilającym z uziemieniem. Bardziej zaawansowanym sposobem wyrównywania potencjałów pomiędzy tobą a komputerem jest zastosowanie specjalnego zestawu antystatycznego. Składa się on z opaski na nadgarstek i maty, które posiadają przewody służące do podłączenia do obudową komputera. Kiedy rozkręcasz komputer, umieść matę obok lub poniżej, a następnie połącz ją z obudową przewodem uziemiającym. Załóż opaskę na nadgarstek i również połącz z obudową (zwróć uwagę, aby w miejscu podłączania była ona wolna od farby i zapewniała dobry kontakt) lub z matą. Takie podłączenie zapewni dostosowanie cię do potencjału komputera i uchroni układy przed ładunkiem statycznym. Jeśli wymontowujesz podzespoły, jak napędy dyskowe, karty rozszerzeń i szczególnie delikatne części, jak płyta główna, pamięci czy procesor, kładź je zawsze na macie. Niektórzy kładą sam komputer na macie; nie należy tego robić - mata to miejsce na wymontowane podzespoły. Jeśli nie posiadasz maty, kładź podzespoły na czystym stole. Zawsze chwytaj kartę rozszerzeń najpierw za metalowy uchwyt; jest on podłączony do obwodu uziemienia karty i w ten sposób ochronisz ją przed ewentualnym ładunkiem statycznym. Jeśli karta nie posiada metalowego uchwytu (jak np. płyta główna), trzymaj ją za brzegi starając się nie dotykać żadnego elementu.
Niektórzy polecają umieszczanie płyt i układów na folii aluminiowej. Zdecydowanie odradzam. Wiele płyt głównych, kart rozszerzeń i innych układów posiada wbudowane baterie litowe lub niklowo-kadmowe. Przy ich zwarciu, które może nastąpić po umieszczeniu płyty na folii, baterie nadmiernie się nagrzewają i mogą wystrzelić jak petarda. Ponieważ nie zawsze jesteś w stanie ocenić, czy dana płyta ma wbudowaną baterię, nie należy wymontowanych płyt kłaść na przewodzącej metalowej powierzchni.
Program konfiguracyjny Zanim wyłączysz komputer i ściągniesz obudowę, musisz zanotować kilka rzeczy na wypadek wykasowania ustawień pamięci CMOS. Jest ona zasilana ze specjalnej baterii, by zachować dane o konfiguracji komputera po jego wyłączeniu. Jeśli wyciągniesz baterię lub zewrzesz określone piny, wykasujesz dane z pamięci CMOS, a tym samym stracisz ustawienia podstawowych danych o komputerze, m.in. ile i jakie posiada napędy, ile ma zainstalowanej pamięci, jaka jest data i godzina.
Najważniejsze informacje dotyczą parametrów twardego dysku. Dane dotyczące innych podzespołów są stosunkowo łatwe do odtworzenia przy następnym uruchomieniu komputera; w przypadku dysków nie zawsze jest to takie proste. Większość dzisiejszych programów BIOS-u potrafi odczytać informacje konfiguracyjne z dysków, gorzej, jeśli posiadasz starsze wersje - wtedy sam musisz podać wszystkie parametry. Oznacza to, że musisz znać ilość cylindrów, głowic i sektorów na ścieżkę. Niektóre BlOS-y określają twardy dysk tylko za pomocą liczby typu (type nuniber), zwykle mieszczącej się w przedziale od l do 50. Większość BIOS-ów wykorzystuje typ 47 lub wyższy na tzw. dysk użytkownika (user type), co oznacza, że wszystkie podawane parametry są zmienne i wprowadzane ręcznie. Pamiętaj, aby zanotować właśnie te parametry, gdyż mogą być później bardzo trudne do określenia. Obecnie dyski EIDE posiadają dodatkowe parametry konfiguracyjne: translation mode i transfer niwie. Dla dysków większych od 528 MB należy zachować parametr transla-tion mode różnie określany w różnych wersjach BIOS-u. Szukaj nazw takich jak: CHS (Cylinder Head Sector), ECHS (Extended CHS), Large (to samo co ECHS) lub LBA (Logical Block Addressing). Jeśli zmienisz konfigurację komputera i nie ustawisz takiej samej wartości parametru translation modę, dane na dysku mogą być niedostępne. Większość BIOS-ów automatycznie odczytuje właściwości dysków i ustawia właściwie odpowiednie parametry. Możesz mieć jednak problemy z BlOS-ami nie czytającymi tych parametrów lub w przypadku nadpisania tych ustawień przy wcześniejszej instalacji. Aby móc odczytać dane z dysku, parametr translation mode musi mieć taką wartość, jaką posiadał przy formatowaniu dysku. Ustawienie prędkości dysku jest już prostsze. Starsze dyski pracowały z prędkością 8,3 MB/s, co określano mianem trybu PIO 2 (Progremmed l/O modę 2), nowsze natomiast -z prędkością 11,1 MB/s (tryb PIO 3) lub 16,6 MB/s (tryb PIO 4). Większość BIOS-ów pozwala na wybór ustawienia, można też skorzystać z funkcji automatycznego ustawienia prędkości. Więcej o dyskach dowiesz się w rozdziałach 14. i 15. Jeśli nie podasz właściwej wartości parametrów dysku w programie konfiguracyjnym, nie będziesz miał dostępu do danych. Znam parę osób, którym się to przydarzyło przy rekonfigurowaniu komputera. Jeśli podasz złe dane, najczęściej objawi się to komunikatem "Brak systemu operacyjnego" (Missing operating system) i brakiem dostępu do dysku C. Niestety, nie zawsze wystarczy odczytać parametry dysku z tabeli i wprowadzić je. To zadziała tylko w przypadku, gdy przy poprzednim konfigurowaniu komputera parametry te zostały właściwie wprowadzone. Miałem do czynienia z wieloma komputerami, gdzie tak nie było; jedyną metodą, aby dotrzeć do danych na takim dysku, jest określenie tych samych niewłaściwych parametrów. Widać więc, że warto zanotować parametry dysku. Większość komputerów posiada program konfiguracyjny umieszczony bezpośrednio w pamięci ROM BIOS-u. Jeśli posiadasz BIOS Phoenix, uruchamia się go kombinacją klawiszy Ctrl+Alt+Esc lub Ctrl+Alt+S. Dla innych BIOS-ów, np. AMI BIOS, program setupu uruchamia się przy starcie systemu; trzeba tylko nacisnąć klawisz Delete. Po uruchomieniu programu spisz wszystkie parametry. Najłatwiej to zrobić drukując je kombinacja klawiszy Shift+Print Screen wysyła kopię ekranu na drukarkę. Wiele programów konfiguracyjnych umożliwia wpływanie na dany chipset na płycie głównej. Te parametry też należy zanotować. Większość komputerów ma możliwość powrotu do parametrów standardowych w przypadku wyjęcia baterii i straty wprowadzonych parametrów.Komputery z magistralami MCA i EISA posiadają bardziej zaawansowane programy konfiguracyjne, zapamiętujące nie tylko konfiguracje płyty głównej, ale także wszystkich kart rozszerzeń. Dodatkowo można te ustawienia zapamiętać na dyskietce.
Aby uruchomić program konfiguracyjny, potrzebna jest specjalna dyskietka (Setup Disk lub Reference Disk). W przypadku niektórych komputerów, jak np. IBM PS/2 czy Compaq, program konfiguracyjny przechowywany jest również w ukrytej partycji na dysku twardym. Podczas startu systemu kursor przeskakuje na kilka sekund na prawą stronę ekranu; można teraz uruchomić program konfiguracyjny kombinacją klawiszy Ctrl+Alt+Insert (dla komputerów IBM) lub F10 (dla komputerów Compaq). W przypadku innych komputerów program konfiguracyjny może uruchamiać się inaczej -szczegółów szukaj w dokumentacji. Są również dostępne programy reklamowane jako posiadające możliwość zapisu ustawień na dysk. Niestety, nie pracują one dobrze ze wszystkimi wersjami BIOS-u, tak więc przed użyciem upewnij się, czy będą współpracować z twoim komputerem.
Fizyczna konfiguracja komputera Przed rozkładaniem komputera wskazane jest również zapamiętanie ustawień zworek i przełączników, umieszczenia i orientacji kabli, umieszczenia przewodów uziemienia, położenia kart rozszerzeń. Szczególnie istotne są ustawienia zworek i przełączników na każdej karcie i płycie głównej. Jeśli niechcąco je uszkodzisz, będziesz znal ich oryginalne ustawienia. Jest to ważne, jeżeli nie posiadasz dokumentacji komputera, a nawet jeśli ją masz, często zdarzają się nie udokumentowane zworki i przełączniki, które jakoś trzeba ustawić. Pomyśl, jak będziesz się czuć, gdy rozłożysz czyjś komputer i nie będziesz mógł go uruchomić, bo źle podłączyłeś zworki czy ustawiłeś przełączniki. Jeżeli zanotujesz te dane - kłopot masz z głowy. Notuj również orientację kabli. Większość markowych kabli jest wykonywana w sposób uniemożliwiający odwrotne włożenie, ale nie wszędzie występują właśnie takie kable. Poza tym, można pomylić kabel dysku twardego z kablem napędu dyskietek. Powinieneś oznaczyć kable lub zanotować, gdzie który kabel był włożony i w jakim był położeniu. Kable taśmowe posiadają z reguły z jednej strony przewód innego koloru (czerwony, zielony, niebieski lub czarny) oznaczający pin 1. Również na złączu kabla może być znaczek trójkąta lub jedynka. Podzespół, do którego podłączasz kabel, jest oznaczony identycznie, aby wskazać położenie pinu 1. Może to być kropka, jedynka lub inny znak. Chociaż orientacja kabli i ich podłączanie wydają się proste, podczas prowadzenia seminariów rzadko przeszliśmy przez cały kurs, aby choć jedna grupa nie miała z tym problemów. Na szczęście, w większości przypadków odwrotne włożenie kabla nie powoduje żadnych trwałych uszkodzeń. Nie dotyczy to kabli zasilających i połączeń baterii - tutaj odwrotne podłączenie prawie na pewno doprowadzi do jakiegoś uszkodzenia. W przypadku płyty głównej odwrotne podłączenie kabla zasilającego lub podłączenie do niewłaściwego gniazda spowoduje podanie napięcia 12 V tam, gdzie powinno być 5 V. Może to spowodować „wystrzelenie" układu z płyty. Znam parę osób, którym się to przytrafiło - na szczęście skończyło się bliznami na twarzy. Sam zawsze odwracam głowę, gdy po raz pierwszy włączam komputer, tak na wszelki wypadek. Odwrotne włożenie baterii CMOS spowoduje uszkodzenie pamięci CMOS. Wtedy trzeba wymienić całą płytę główną. Dobrze jest również zapamiętać położenie innych elementów, takich jak kable uziemiające, karty rozszerzeń. Nieraz może być ważne, w którym gnieździe dana karta się znajduje. Lepiej mieć wszystkie dane zapisane, aby można było powrócić do pierwotnego ułożenia elementów i konfiguracji. Jest to szczególnie ważne w przypadku komputerów z magistralami MCA i EISA. Przejdziemy teraz do pracy z komputerem.
Demontaż komputera Do rozkręcenia komputera potrzeba tylko kilku podstawowych narzędzi: do śrubek zewnętrznych mocujących obudowę - klucz 1/4" lub wkrętak krzyżakowy, dla innych śrubek klucz 3/16" lub wkrętak krzyżakowy. Przydadzą się również szczypce do wyjęcia zatrzasków przytrzymujących płytę główną, do zworek i trudnych do wyjęcia złączy kabli. W celu ochrony przed ładunkiem statycznym możesz użyć maty antystatycznej do umieszczania na niej wymontowywanych elementów. Jeśli jej nie posiadasz, kładź je na dowolnej niemetalowej powierzchni wolnej od ładunku.
Zdjęcie obudowy 1. Wyłącz komputer. Odłącz wszystkie kable, łącznie z kablem zasilającym. 2. Obejrzyj obudowę, by ustalić, jak ją ściągnąć. Odkręć śrubki mocujące obudowę do szkieletu komputera - są one umieszczone z reguły na tylnym brzegu obudowy. Mogą też być z przodu, za przednim plastikowym panelem (patrz rysunek 3.1). 3. Po odkręceniu śrub złap obudowę i wysuń ją - w zależności od posiadanego komputera do tyłu, do przodu albo do góry. 4. Jeżeli posiadasz opaskę antystatyczną na nadgarstek i matę, połącz je z komputerem i załóż opaskę. Po połączeniu będziesz na tym samym potencjale co komputer, a to zapewni ochronę przed ładunkiem statycznym.
Rysunek 3.1. Odkręcanie śrub mocujących obudowę Śruby mocujące
Śruby mocujące
Za zgodą IBM
Wyciąganie kart rozszerzeń Najpierw zdejmij obudowę, według powyższego opisu, a następnie: 1. Zanotuj, w którym słocie jest dana karta; zrób szkic lub rysunek. 2. Odkręć śruby mocujące kartę (patrz rysunek 3.2). 3. Zanotuj sposób podłączenia kabli do karty przed jej wymontowaniem. Kable taśmowe posiadają z jednej strony kolorowy pasek oznaczający pin 1. Niektóre kable są tak wykonane, że nie ma możliwości ich obrócenia. 4. Wyciągnij kartę z gniazda podnosząc ją z taką samą siłą z obu jej końców. 5. Zanotuj położenie zworek i przełączników, zwłaszcza jeżeli nie posiadasz dokumentacji. Nawet gdy posiadasz dokumentację, lepiej zanotuj te dane, gdyż niektórzy producenci umieszczają na kartach nie udokumentowane zworki i przełączniki specjalnego przeznaczenia (do testowania albo uzyskania specyficznej konfiguracji).
Rysunek 3.2. Odkręcanie śruby mocującej kartę
Za zgodą IBM
Wymontowanie dysku twardego Jest to prosta procedura, identyczna dla twardych dysków, napędów dyskietek, CD-ROM-ów, streamerów. Dyski mogą być umieszczone w specjalnej dodatkowej obudowie przystosowanej do odpowiedniej kieszeni mocowanej do szkieletu komputera. Umożliwia ona wyjęcie dysku bez konieczności odkręcania śrubek.
Przed wyciągnięciem dysku zrób kopię znajdujących się na nim danych. Jest to bardzo ważne, gdyż zawsze istnieje możliwość jego uszkodzenia lub utraty danych przez nieostrożne obchodzenie się z nim. W celu wymontowania dysku ściągnij najpierw obudowę, jak było to wcześniej omówione, a następnie postępuj zgodnie z poniższymi krokami: 1. Znajdź śrubki mocujące dysk i odkręć je. W przypadku dysków umieszczonych w kieszeni, po prostu wyciągnij tę kieszeń. 2. Odłącz od napędu kabel zasilający, kabel danych i, jeśli jest, kabel uziemiający (patrz rysunek 3.3 i rysunek 3.4) 3. Wyciągnij dysk.
Rysunek 3.3. Odłączanie kabli
Kabel danych
Kabel zasilający Przewód uziemiający
Za zgodą IBM
Rysunek 3.4. Napęd dyskietek Odłączenie kabli
Przewód uziemiający
Kabel zasilający
Wyjęcie zasilacza Zasilacz jest z reguły przymocowany kilkoma (najczęściej czterema) śrubami w tylnej części komputera lub za pomocą podkładek mocujących go na dole. Wyjęcie zasilacza może wymagać wysunięcia dysku twardego. Aby wymontować zasilacz, odkręć obudowę, a następnie: 1. Odkręć śruby mocujące z tyłu komputera (patrz rysunek 3.5).
Rysunek 3.5. Zasilacz. Odkręcenie śrub
Śruby mocujące zasilacz
2. Odłącz kable zasilające płytę główną (patrz rys. 3.6) - ciągnij za wtyczkę, nie za kabel - a następnie dysk twardy. 3. Wyciągnij zasilacz. Rysunek 3.6. Odłączenie kabli zasilających główną
Złącza zasilacza Za zgodą IBM
Wyjęcie płyty głównej Po wyjęciu kart rozszerzeń możesz wyciągnąć płytę główną. Jest z reguły przymocowana kilkoma śrubami oraz plastikowymi zatrzaskami, tak że płyta nie dotyka metalowej części i nie ma ryzyka zwarcia. Nie wyciągaj zatrzasków z płyty przed jej wymontowaniem, niech w niej pozostaną; przy montażu płyty wchodzą one w odpowiednie otwory w obudowie. Kiedy będziesz wkładał płytę, upewnij się, czy wszystkie zatrzaski są w swoich otworach - w przeciwnym razie możesz złamać płytę przy przykręcaniu śrub lub wkładaniu karty rozszerzeń. Aby wymontować płytę główną, wyjmij najpierw wszystkie karty rozszerzeń, jak to było wcześniej opisane, a następnie postępuj zgodnie z poniższym opisem. 1. Jeżeli płyta posiada gniazda do podłączenia napędów, portów, przed rozłączeniem kabli opisz je. 2. Do płyty jest również podłączonych wiele małych kabelków dochodzących z przedniego panelu komputera. Opisz te połączenia i oznacz kable przed odłączeniem od płyty. Oszczędzi ci to wiele czasu przy ich podłączaniu. 3. Jeśli procesor posiada radiator z wbudowanym wentylatorem, odłącz wtyczkę od wentylatora. 4.Jeśli jeszcze nie wyjąłeś zasilacza, opisz, jak poszczególne kable są podłączone do płyty głównej, i odłącz je. 5. Znajdź i odkręć śruby mocujące płytę, uważaj, aby nie zgubić plastikowych podkładek. 6. Przesuń płytę 1-2 cm w kierunku od zasilacza, tak aby zatrzaski zwolniły płytę (patrz rys. 3.7).
7. Wyciągnij płytę. Połóż ją w miejscu wolnym od ładunku statycznego, np. na macie antystatycznej. 8. Ewentualnie wyjmij procesor pamięci.
Wyjęcie układów pamięci SIMM lub DIMM Jedną z zalet pamięci SIMM i DIMM jest to, że bardzo łatwo sieje instaluje i wymon-towuje. Przy wymontowywaniu musisz je wyciągnąć zaczynając od modułów znajdujących się dalej od brzegu płyty. Poniższa procedura opisuje sposób wyjęcia modułów SIMM; moduły DIMM wyjmuje się w podobny sposób, są tylko trochę dłuższe od modułów SIMM. Aby wymontować pamięci SIMM (lub DIMM): 1. Delikatnie odciągnij zatrzaski z każdego boku modułu. 2. Obróć lub pociągnij moduł z gniazda (patrz rys. 3.8).
Rysunek 3.7. Uwolnienie zatrzasków z gniazd mocujących
Gniazda
Plastikowe zatrzaski (Widok : boku)
mocujące
Rysunek 3.8. Wymontowanie modułów pamięci SIMM
Uważaj, aby nie uszkodzić gniazd, w których są zamocowane moduły, w przeciwnym razie czeka cię kosztowna naprawa. Nigdy nie używaj siły; powinny lekko wyjść. Jeśli nie wychodzą, robisz coś nieprawidłowo.
Instalacja płyty głównej Przed instalacją nowej płyty sprawdź, czy zawiera wszystkie niezbędne elementy. Oprócz samej płyty powinny być przynajmniej kable I/O i instrukcja. Jeśli zamówiłeś płytę razem z procesorem lub pamięcią, powinny one być zamontowane na płycie, ale mogą też być dołączone osobno. Niekiedy możesz też otrzymać razem z płytą opaskę antystatyczną, aby ochronić płytę przed ładunkiem statycznym przy instalacji.
Przygotowanie Zanim zainstalujesz płytę, musisz ją odpowiednio skonfigurować do pracy z procesorem. Nowe płyty posiadają zworki sterujące zarówno prędkością procesora, jak i dostarczanym napięciem. Jeśli zostaną nieprawidłowo ustawione, komputer może w ogóle nie pracować, pracować z błędami, a nawet może dojść do uszkodzenia procesora. Jeśli masz jakieś wątpliwości co do prawidłowego ustawienia zworek, skontaktuj się ze sprzedawcą płyty, zanim dokonasz jakichś zmian na płycie. Większość procesorów wydziela znaczne ilości ciepła i wymaga zainstalowania radiatora. Aby zainstalować procesor i radiator, postępuj zgodnie z poniższą procedurą: 1. Wyjmij płytę z antystatycznej folii, w której ją kupiłeś, i połóż na niej lub na macie antystatycznej (jeśli ją posiadasz). 2. Sprawdź w instrukcji ustawienie zworek dla danego procesora. Na rysunku płyty znajdź położenie tych zworek, a z tabeli odczytaj właściwe ich ustawienie. Jeśli procesor był już zamontowany na płycie, zworki powinny być właściwie ustawione, ale nigdy nie zaszkodzi sprawdzić samemu. 3. Znajdź pin l procesora i pin l w gnieździe ZIF na płycie - rozpoznasz je po ściętym rogu lub po oznaczeniu jedynką. Podnieś dźwigienkę z boku gniazda ZIF i włóż do niego procesor, zwracając uwagę, aby wszystkie piny weszły w odpowiednie otwory. Jeżeli procesor nie wchodzi swobodnie do gniazda, sprawdź, czy któryś pin nie jest zagięty. Po umieszczeniu procesora w gnieździe opuść dźwigienkę. 4. Jeśli procesor nie ma jeszcze przymocowanego radiatora, zrób to teraz. Większość radiatorów mocuje się na zatrzaski bezpośrednio do procesora lub jego gniazda. Mocuj je bardzo ostrożnie, aby nie porysować płyty, co może uszkodzić ścieżki lub elementy.
Zaleca się również posmarowanie procesora, do którego ma być przymocowany radiator, niewielką ilością substancji przewodzącej. Radiator lepiej odprowadza wtedy ciepło z procesora.
Instalowanie modułów pamięci Płyta główna musi mieć zainstalowane moduły pamięci, aby w ogóle mogła działać. Najnowsze płyty używają pamięci SIMM lub DIMM. Procedury montażu różnią się nieznacznie. Z reguły należy zacząć od gniazda i banku o najniższym numerze. Zwróć uwagę, że w niektórych płytach musisz instalować moduły po dwa lub nawet po cztery. Szczegółów instalacji (jak, w jakiej kolejności i w których gniazdach instalować moduły) szukaj w instrukcji płyty głównej. Moduły pamięci posiadają z jednej strony wycięcie, tak że można je włożyć do gniazda tylko w jedną stronę. W celu zainstalowania modułów pamięci postępuj według procedury ich wymontowania, ale w odwróconym porządku.
Włożenie płyty głównej Płyta główna jest mocowana kilkoma śrubkami i kilkoma plastikowymi zatrzaskami. Jeśli montujesz płytę do nowej obudowy, będziesz musiał najpierw umieścić w odpowiednich otworach kilka metalowych śrubek odległościowych lub plastikowych zatrzasków. Aby zainstalować płytę: 1. Jeżeli są wykorzystywane plastikowe zatrzaski, wymontuj je ze starej płyty. Używając szczypiec, lekko ściśnij ich czubek i przepchnij go przez otwór w płycie. 2. Znajdź w nowej płycie otwory na śrubki odległościowe i zatrzaski. Śrubek powinieneś używać przy metalizowanych otworach, a zatrzasków przy zwykłych. Wkręć śrubki do obudowy tak, aby zgrały się z otworami na płycie. 3. Umieść zatrzaski w płycie - wkładając je od spodu. 4. Włóż płytę do środka tak, aby zatrzaski weszły na swoje miejsce i dobrze przytrzymywały płytę do obudowy. Płyta jest właściwie ułożona, jeżeli jej otwory zgrały się z metalowymi śrubkami odległościowymi i otworami w obudowie. 5. Przykręć płytę, wykorzystując plastikowe podkładki ze starej płyty.
Podłączenie zasilacza Nowsze płyty ATX posiadają pojedynczy wtyk, który można podłączyć tylko w jedną stronę. Płyty Baby-AT i inne posiadają zwykle dwa wtyki z sześcioma kablami do zasilania płyty głównej, które łatwo można pomylić ze sobą. Najczęściej są one oznaczone P8 i P9. Sposób ich podłączenia do płyty (który wtyk, do którego gniazda) jest niezwykle istotny - jeśli podłączysz je odwrotnie, uszkodzisz płytę po włączeniu zasilania. Wiele komputerów posiada również wentylator procesora, który też należy podłączyć do zasilacza. Oto jak należy podłączać poszczególne kable: 1. Jeśli posiadasz płytę ATX, podłącz pojedynczy wtyk do płyty - tu nie ma możliwości pomyłki. Jeśli natomiast zasilacz posiada dwa wtyki, z sześcioma kablami każdy, włóż je w ten sposób, aby dwa czarne kable uziemiające na brzegach wtyków były obok siebie. Sprawdź również w instrukcji płyty, jak powinna być ona podłączona do zasilacza. 2. Podłącz do zasilacza przewód wentylatora procesora. Podłącza się go przez wtyk przeznaczony dla dysków lub bezpośrednio na płycie.
Podłączenie przewodów do płyty głównej Do płyty głównej podłączonych jest wiele przewodów, m.in. diody dysku twardego i zasilania, głośnik, przyciski reset i turbo. Większość najnowszych płyt posiada też liczne wbudowane gniazda do podłączenia dysków, portów szeregowych i równoległego. Niektóre posiadają także wbudowane karty graficzne, muzyczne i SCSI. Płyty ATX posiadają wszystkie te gniazda z tyłu płyty. Płyty Baby-AT wykorzystują dodatkowe karty rozszerzeń. W przypadku płyt ATX instaluj kable w następujący sposób: 1. Podłącz napęd dyskietek do 34-pinowego gniazda na płycie. 2. Podłącz dysk twardy, CD-ROM i streamer do 40-pinowego gniazda. Z reguły używa się pierwszego kanału do podłączania dysków, a drugiego - do podłączania CD-ROM-u i streamera. 3. Płyty inne niż ATX posiadają 25-pinowe żeńskie gniazdo portu równoległego i dwa męskie gniazda szeregowe: jedno 9-pinowe, a drugie - albo 9-, albo 25-pinowe. Musisz zgrać pin l kabli portów szeregowych i równoległego z pinem l odpowiednich gniazd na płycie i połączyć je. 4. Jeśli porty nie posiadają zakończeń mocujących do obudowy (podobnych jak karty rozszerzeń) lub wszystkie gniazda rozszerzeń są wykorzystane, sprawdź, czy na tylnej ściance komputera nie ma otworów wielkości portów. Jeśli je znajdziesz, musisz odłamać kawałek metalu normalnie zasłaniający otwór. Odkręć obie sześciokątne śrubki po dwóch stronach portu, umieść port w otworze i przymocuj go tymi śrubkami. 5. Większość nowszych płyt posiada również wbudowane gniazdo myszki. Jeśli twoja płyta nie posiada go (gniazdo myszki powinno być obok gniazda klawiatury), najprawdopodobniej jest dołączona osobna karta z tym gniazdem. W takim przypadku połącz je z właściwym gniazdem na płycie głównej i umocuj na tylnej ściance komputera. 6. Podłącz do płyty kable z przełączników, diod LED i głośnika, znajdujących się na przednim panelu. Jeśli nie ma odpowiednich oznaczeń na płycie, sprawdź w dokumentacji, gdzie dany kabel powinien być podłączony.
Instalacja kart rozszerzeń Większość komputerów wykorzystuje gniazda rozszerzeń do podłączenia kart grafiki, sieciowych, muzycznych i SCSI. Aby zainstalować kartę: 1. Włóż każdą kartę do gniazda, przytrzymując ją ostrożnie za oba brzegi i nie dotykając układów ani obwodów. Dociśnij ją równomiernie od góry, aby wskoczyła na miejsce. 2. Przykręć uchwyt karty. 3. Zamocuj wewnętrzne kable, które wcześniej wyjąłeś.
Przykręcenie obudowy i podłączenie zewnętrznych kabli Komputer jest już prawie złożony. Teraz pozostało tylko przymocowanie obudowy i podłączenie zewnętrznych urządzeń. Zwykle nie przykręcam obudowy, zanim się nie upewnię, że komputer pracuje poprawnie. Często zdarza się źle podłączyć kabel lub zworkę i trzeba ją ponownie odkręcać. Aby zakończyć składanie komputera: 1. Nałóż z powrotem obudowę. 2. Zanim włączysz komputer, podłącz wszystkie zewnętrzne urządzenia. Większość wtyków ma kształt litery D, tak że nie można ich podłączyć odwrotnie.
3. Podłącz 15-pinowy kabel monitora do żeńskiego gniazda karty graficznej. 4. Jeżeli posiadasz kartę modemową, podłącz do niej kabel telefoniczny. 5. Podłącz kabel klawiatury i myszki (do gniazda myszki szeregowej, do portu szeregowego)
lub, w przypadku myszki
6. Jeśli posiadasz inne zewnętrzne urządzenia, jak joystick czy kolumny podłączane do karty muzycznej, również je podłącz.
Uruchomienie programu konfiguracyjnego (CMOS Setup) Teraz możemy już włączyć komputer i uruchomić program konfiguracyjny. Umożliwi to odpowiednie ustawienie parametrów płyty głównej do zainstalowanych podzespołów. Komputer dodatkowo przeprowadzi test sprawdzający, czy nie ma jakichś problemów: 1. Włącz najpierw monitor, potem komputer. Obserwuj komunikaty na ekranie i zwracaj uwagę na sygnały dźwiękowe. 2. Automatycznie zostanie uruchomiony program testujący POST (Power On Self Test), sprawdzający BIOS grafiki, pamięć RAM i wyświetlający zainstalowane elementy. W przypadku wystąpienia poważniejszych problemów ekran może pozostać czarny i będą generowane sygnały dźwiękowe, wskazujące określony problem. Sprawdź w dokumentacji płyty głównej lub BIOS-u, co one oznaczają. 3. Jeżeli nie ma poważnych problemów, na ekranie ukaże się ekran z parametrami komputera. Aby przerwać standardową procedurę startową komputera i uruchomię program konfiguracyjny, należy nacisnąć odpowiedni klawisz, lub kombinację klawiszy, w zależności od typu BIOS-u. Informacja ta najczęściej jest wyświetlana na ekranie, a gdyby jej nie było, sprawdź w dokumentacji. 4. Po uruchomieniu programu konfiguracyjncgo wprowadź właściwy czas, ustawienia dysków, kart graficznych, klawiatury itp. Większość nowszych programów potrafi również odczytać parametry dysku twardego. 5. Zapamiętaj wprowadzone dane. Komputer powinien teraz uruchomić się prawidłowo, zarówno z dysku, jak i z dyskietki. Jeśli będą, jakieś problemy, przejrzyj dokumentację płyty głównej. Jeśli wszystko działa, wyłącz, komputer i przykręć obudowę.
Czynności diagnostyczne i archiwizacja danych Bardzo ważnym elementem, zapewniającym komputerowi poprawną pracę przez długie lata, są programy diagnostyczne. Ich koszt zwraca się podczas używania. Zmniejszają ilość problemów związanych z utratą danych i uszkodzonymi podzespołami. Wiele razy korzystałem z ich nieocenionej pomocy. Przedstawię również programy archiwizujące, różne procedury tworzenia archiwów oraz omówię, dlaczego tworzenie archiwów jest takie ważne. Fizyczne urządzenie, jak dysk czy płyta, może zostać naprawione lub wymienione, natomiast danych nie da się ani naprawić, ani wymienić. I tak. większość procedur diagnostycznych, dotyczących twardego dysku, wymaga formatowania niskiego poziomu - dysku będziemy mogli dalej używać, natomiast wszystkie dane, jakie były na nim zapisane, zostały utracone. W rozdziale tym skupimy się na zaawansowanych procedurach archiwizacyjnych. wymagających specjalnego sprzętu i oprogramowania. Składowanie na dyskietki, z wykorzystaniem DOS-owskiego programu backup, jest najczęściej niewystarczające i zbyt kosztowne w przypadku archiwizowania twardego dysku. Aby przekopiować dane z 4 GB dysku, potrzebowałbym 2867 dyskietek 1,44 MB! Same dyskietki kosztowałyby przeszło
1000 dolarów, nie licząc czasu, jaki by zajęło kopiowanie. Możemy zamiast tego wykorzystać streamer i składować dane na jednej tasiemce o pojemności od 4 GB do S GB. kosztującej od 5 do 30 dolarów za sztukę. Coraz popularniejszą alternatywą stają się napędy o dużych pojemnościach, jak na przykład Iomega Zip. Jaz oraz zapisy walne CD-ROM-y. Chociaż streamer kosztuje ok. 500 dolarów, i tak więcej wydasz na tasiemki. Dobre archiwum powinno składać się przynajmniej z trzech kompletów nośników dla jednego systemu. Nośniki te wykorzystuje się rotacyjnie i jeden /. nich powinien być przechowywany poza lokalizacją danego systemu. Dodatkowo, nośniki powinny być wymieniane przynajmniej raz w roku, aby uniknąć ich nadmiernego zużycia. W przypadku konieczności archiwizowania kilku systemów koszty nośników szybko rosną. Powinieneś również uwzględnić czynnik czasowy. Nie polecam archiwizacji wymagającej wymiany nośnika podczas jej trwania. Zaopatrz się w taki system archiwizacyjny, który zapewni wykonanie pełnego archiwum na jednej tasiemce, tak aby nie było konieczności interwencji. Wymiana nośnika podczas składowania jest prawdziwą udręką i może również wpłynąć na jego niewykonanie. Poza tym, przy każdej wymianie nośnika wzrasta prawdopodobieństwo wystąpienia błędów, które mogą ujawnić się dopiero podczas odtwarzania danych. W ostatnich czasach powszechność nowych środków archiwizacji, jak napędy Iomega oraz stacje CD-RW (Read - Write), sprawiła, że wielu ludzi się na nie przestawiło. Choć w wielu przypadkach te środki wystarczają, są niepraktyczne przy częstym wykonywaniu kopii zapasowych. Z różnych względów: między innymi z powodu ich małej pojemności w porównaniu do dzisiejszych standardów dysków twardych. Choć sam nośnik danych wydaje się niedrogi, kopia dzisiejszego dysku twardego, często zawierającego wiele gigabajtów danych, zmusi do użycia kilku takich nośników. Dlatego też do kosztów nośnika należy również doliczyć tracony czas oraz niewygodę rozwiązania. Za mało pojemny stanie się więc nawet nośnik Iomega Jaz, który pomieści 2 GB danych. Gdy więc weźmie się pod uwagę, że taki nośnik kosztuje ponad 150 dolarów, okaże się, że jest to rozwiązanie i droższe, i mniej wygodne od zautomatyzowanego systemu archiwizacji taśmowej. Archiwizacja jest bardzo ważną czynnością, niedocenianą przez wielu posiadaczy komputerów. Ważny jest również sprzęt, na jakim sieją wykonuje, a wydatki z nim związane zwrócą się w dłuższym czasie, uwzględniając wiarygodność zapisanych danych, niższy koszt nośników i brak konieczności nadzoru, i to przy archiwach całego systemu.
Konserwacja komputera Wyróżniamy dwa typy konserwacji: aktywną i bierną. Aktywna, to działania zapewniające dłuższą bezproblemową pracę komputera, obejmuje czyszczenie komputera i jego podzespołów. W tej części opiszemy procedury konserwacyjne głównych podzespołów, sprawdzanie umieszczenia układów w gniazdach i formatowanie twardego dysku. Konserwacja bierna obejmuje zapewnienie odpowiedniego środowiska pracy komputerowi: używanie filtrów sieciowych, utrzymanie odpowiedniej temperatury i czystości powietrza, ochronę przed wstrząsami.
Procedury aktywnej konserwacji Jak często powinieneś stosować te procedury, zależy od otoczenia komputera i jakości jego podzespołów. W przypadku dużego zapylenia, jak na stacji benzynowej czy na podłodze w sklepie, będzie konieczne czyszczenie komputera przynajmniej raz na trzy miesiące. Komputery pracujące w biurach na ogół wymagają przeczyszczenia raz na rok, a nawet na dwa lata. Jeśli jednak po rozkręceniu komputera zauważysz, że jest on w środku bardzo zakurzony, zwiększ częstotliwość czyszczenia. W przypadku dysków twardych konserwacja polega na okresowej archiwizacji najważniejszych części dysku, takich jak boot sektory, tablice alokacji (FAT) i struktury katalogów oraz defragmentacji.
Kopie zapasowe systemu Jedną z najważniejszych procedur konserwacji jest regularne wykonywanie kopii zapasowych systemu. Ponurą prawdą w dziedzinie serwisu i naprawy komputerów jest fakt, że sprzęt da się naprawić lub wymienić, zaś danych - niestety nie. Na przykład wiele procedur naprawy lub rozwiązywania problemów z dyskiem wymaga ponownego założenia partycji lub przeformatowania dysku, co powoduje utratę wszystkich zapisanych na nim danych. Pojemność twardych dysków typowego komputera osobistego wzrosła na tyle, że tworzenie kopii na dyskietkach nie może być już brane pod uwagę. Kopie zapasowe tworzone na dyskietkach, na przykład w przypadku oprogramowania do tworzenia kopii zapasowych w DOS-ie, jest niewygodną i dość drogą metodą utworzenia kopii zapasowej dzisiejszego systemu. Na przykład do zapisu kopii mojego czterogigabajtowego dysku trzeba by wykorzystać 2 876 dyskietek o pojemności 1,44 MB! Same dyskietki kosztowałyby ponad 1000 dolarów, nie mówiąc już o tym, ile czasu by mi to zajęło. Tradycyjną alternatywą dyskietek jest taśma magnetyczna. System DAT (Digital Audio Tape) lub Travan może zapisać od 4 do 8 GB danych na pojedynczej taśmie kosztującej mniej niż 30 dolarów. Rosnąca popularność dysków wymiennych (takich jak napędy Iomega Zip lub Jaz) oraz nagrywarek CD-ROM sprawia, że zaczynają się opłacać także inne rozwiązania. Choć napęd taśmy może kosztować ponad 500 dolarów, cena samego nośnika jest faktycznie znacznie niższa niż koszt samego napędu. Jeśli tworzysz kopie zapasowe cennych danych, powinieneś posiadać co najmniej trzy zestawy nośników dla każdego systemu, którego kopię tworzysz. Każdy zestaw nośników powinien być wykorzystywany na zasadzie rotacji, przy czym zawsze jeden zestaw powinien być przechowywany gdzie indziej, na wypadek pożaru lub włamania. Oprócz tego, mniej więcej co rok powinieneś wymieniać nośniki, aby zapobiec błędom wynikłym ze zużycia materiału. Weź pod uwagę, że jeśli tworzysz kopie zapasowe wielu systemów, koszt nośników może stać się znaczącym wydatkiem.Weź także pod uwagę koszt swojego czasu. Jeśli tworzenie kopii wymaga osobistej interwencji przy wymianie nośnika, raczej nie polecam takiego rozwiązania. Kopia systemu powinna się w całości mieścić na pojedynczej taśmie, tak aby całe zadanie można było wykonać automatycznie. Jeśli ktoś będzie musiał zbyt często zmieniać taśmę, kopie zapasowe staną się prawdziwą udręką i prędzej czy później coraz częściej będzie się o nich „zapominać." Także przy każdej wymianie taśmy wzrasta ryzyko wystąpienia błędów i problemów, które objawią się dopiero przy odtwarzaniu danych z taśmy. Kopie zapasowe są o wiele ważniejsze, niż to się niektórym osobom wydaje, więc zainwestowanie nieco pieniędzy w urządzenia takie jak napędy DAT lub Travan może się zwrócić w przyszłości w postaci lepszego zabezpieczenia, lepszej wydajności, mniejszego kosztu nośników i możliwości automatycznego tworzenia pełnych kopii zapasowych systemu, zawierających całą strukturę plików w komputerze.
Przy rosnącym zainteresowaniu wymiennymi nośnikami, takimi jak dyski Iomega Zip lub Jaz, a także wielokrotnie zapisywalnymi płytkami CD-RW, wiele osób decyduje się na tworzenie kopii zapasowych przy pomocy tych urządzeń. W większości przypadków jednak, choć te urządzenia są doskonałe do zapisu większych ilości wybranych danych, są niepraktyczne jeśli chodzi o tworzenie regularnych kopii zapasowych. Wynika to zarówno z mniejszej pojemności nośników w porównaniu do obecnych dysków, jak i z samego kosztu nośników. Choć nośnik w przypadku napędu CD-RW jest dość tani, kopia zapasowa jednego kilku giga bajtowego dysku twardego zajmuje kilka płytek, nie mówiąc już o niewygodzie, która sprawia, że tworzenie w ten sposób regularnych kopii jest mało prawdopodobne. Nawet napędy Iomega Jaz, które mogą zapisać do 2 GB danych na pojedynczym kartri-dżu, mogą wymagać kilku zmian nośnika w celu stworzenia kompletnej kopii systemu. Jeśli weźmiemy pod uwagę cenę kartridża, przekraczającą 150 dolarów, okazuje się, że takie rozwiązanie jest nie tylko niewygodne, ale także drogie.
Bez względu na sposób tworzenia kopii zapasowej, cały wysiłek idzie na marne, jeśli nie będziesz w stanie odtworzyć danych z nośnika. Powinieneś przeprowadzać testy systemu kopii zapasowej regularnie odczytując przypadkowe pliki, w celu upewnienia się, że dane są dostępne.
Czyszczenie komputera Jedną z najważniejszych czynności konserwacyjnych jest regularne, dokładne czyszczenie komputera. Zakurzenie podzespołów może prowadzić do poważnych problemów, m.in. do przegrzewania elementów, co skraca ich czas życia. Poza tym, kurz może zawierać elementy przewodzące, co może powodować zwarcia, korozję i słabe styki. Ze wszech miar opłaca się utrzymywać wnętrze komputera w czystości. Większość komputerów różnych od ATX wykorzystuje wymuszony obieg powietrza chłodzącego. Na tylnej ściance w zasilaczu lub w jego pobliżu zamontowany jest wentylator wypychający powietrze na zewnątrz. We wnętrzu komputera powstaje wtedy podciśnienie wciągające powietrze z zewnątrz przez szpary w obudowie. Jest to bardzo efektywny system chłodzący, nie wykorzystujący filtra. Nie stosuje się filtrów ze względu na trudności z ograniczeniem dostępu powietrza tylko do jednego miejsca, gdzie można by umieścić filtr. Niektóre przemysłowe systemy komputerowe i komputery typu ATX wykorzystują wentylatory wpompowujące powietrze do wnętrza. Powoduje to jego wypychanie na zewnątrz przez każdą szparę w obudowie. Powodem stosowania takiego systemu chłodzenia jest ograniczenie ilości miejsc, przez które wpływa do komputera powietrze, do jednego wentylatora. Umożliwia to użycie filtra powietrza, musi on być jednak systematycznie czyszczony bądź wymieniany. Ze względu na panujące w środku komputera nadciśnienie żadne zanieczyszczenia się tam nie dostają, nawet jeżeli komputer nie jest szczelny. Mogłyby jedynie dostać się tam razem z powietrzem wciąganym przez wentylator, tu jednak jest filtr, który zapobiegnie ich wniknięciu. Takie systemy chłodzenia wykorzystywane są w komputerach pracujących w bardzo zanieczyszczonych środowiskach. Ostatnio wprowadzane modele komputerów opartych o architekturę ATX pokazują, że wielu producentów przestawia się na wypróbowaną już od wielu lat technikę wentylowania podciśnieniowego. Doświadczenie pokazało, że pomysł chłodzenia procesora bezpośrednio przez wentylator zasilacza okazał się niezbyt dobry. Otóż powietrze chłodzące procesor było już przedtem podgrzane przez zasilacz - szczególnie wtedy, gdy był on mocno obciążony. Innym ważnym powodem był brak praktycznej realizacji potencjalnie wielkiej zalety chłodzenia nadciśnieniowego - filtracji wchodzącego powietrza.
Zamontowanie filtru w obudowie chłodzonej podciśnieniowe jest praktycznie niemożliwe ze względu na dużą ilość nieszczelności, dziur i dziurek w konstrukcji komputera. Dlatego wraz z wchodzącym powietrzem do wewnątrz komputera dostaje się kurz. Osadza się on wraz z różnymi związkami chemicznymi pochodzącymi z powietrza w różnych miejscach. Takie niekontrolowane zapylenie może spowodować poważne następstwa. Osadzający się kurz nie przepuszcza powietrza chłodzącego i powoduje przegrzewanie układów; drobne elementy przewodzące, znajdujące się w kurzu, powodują zwarcia, a związki chemiczne przyśpieszają korozję.
Pamiętaj o niepaleniu papierosów w pobliżu sprzętu komputerowego. Dym z papierosów zawiera związki chemiczne, mogące powodować zwarcia i korozję, jak również dodatkowe zanieczyszczenie podzespołów, zwłaszcza dysków. Szczególnie wrażliwe są napędy dyskietek, jako że przez ich duży otwór bez przerwy przepływa powietrze, powodując stosunkowo szybkie zakurzenie. Trochę inaczej wygląda sprawa w przypadku twardych dysków. Przede wszystkim są one zabudowane z pojedynczym otworem wentylacyjnym zabezpieczonym filtrem. Żadne zanieczyszczenia do środka się nie dostaną i wymagane jest jedynie czyszczenie dysku z zewnątrz.
Narzędzia do demontażu i czyszczenia Oto co powinieneś posiadać, aby właściwie zadbać o komputer: * Środki chemiczne * Sprężone powietrze * Małą szczoteczkę * Nie mechacącą się szmatkę * Antystatyczną opaskę
Przydatne mogą być również: * Pianka czyszcząca * Nie ulatniający się środek do wulkanizacji na zimno * Olej silikonowy 4 Odkurzacz
Środki chemiczne Można je podzielić na kilka kategorii: * Środki standardowe * Środki do czyszczenia i oliwienia * Środki odkurzające
Skład niektórych środków chemicznych, stosowanych do czyszczenia komputerów zmienia się, gdyż znaczna ich część została uznana za niebezpieczne dla środowiska naturalnego niszczą warstwę ozonową atmosfery.
Atomy chloru z chlorofluoropochodnych węglowodorów (CFC) i rozpuszczalników chlorowanych łączą się z cząsteczkami ozonu niszcząc go. Produkcja tych związków jest ściśle kontrolowana przez federalne i międzynarodowe instytucje, w celu ochrony warstwy ozonowej. Większość firm zastąpiła te związki innymi, bardziej bezpiecznymi dla środowiska. Są one jednak droższe od poprzednich i nie tak skuteczne. Istnieje wiele środków chemicznych wykorzystywanych do czyszczenia komputerów. EPA (Enviromental Protection Agency - Agencja do spraw ochrony środowiska naturalnego) podzieliła związki chemiczne niszczące ozon na dwie klasy: I i II. Produkcja tych środków jest kontrolowana. Klasa I obejmuje: * chlorofluoropochodne węglowodorów (CFC), * rozpuszczalniki chlorowane. Mogą one być sprzedawane tylko profesjonalnym firmom serwisowym, ale nie zwykłym klientom. Od 15 maja 1993 r. wymagane jest, aby opakowania środków chemicznych, należących do klasy I, posiadały etykietę z ostrzeżeniem, że „zawierają substancje niekorzystnie wpływające na zdrowie i środowisko przez niszczenie ozonu w atmosferze". Również firmy wykorzystujące środki chemiczne z klasy I w procesach produkcyjnych są zobowiązane do umieszczania identycznej informacji na swoich produktach. Najbardziej popularnymi środkami należącymi do tej klasy są różne odmiany freonu, m.in. trójchloroetan. Aż do 1995 roku prawie każdy środek czyszczący zawierał ten związek. Obecnie też można je dostać, ale ze względu na wspomniane ograniczenia są znacznie droższe i mniej dostępne. Klasa II obejmuje środki zawierające specjalne pochodne węglowodorów HCFC. Ich produkcja nie jest tak ograniczona jak środków z klasy I, ze względu na mniejszy wpływ na niszczenie ozonu (średnio 10-krotnie). Wiele firm przestawiło się na ich produkcję, ponieważ nie trzeba dodatkowo ich oznakowywać i są mniej szkodliwe. Inne środki zawierają lotne związki organiczne (VOC) i pochodne węglowodorów typu HFC. Środki te nie niszczą ozonu, a nawet przyczyniają się do jego powstawania - niestety w formie smogu lub innego zanieczyszczenia w pobliżu powierzchni ziemi. Przykładem VOC jest alkohol izopropylowy używany powszechnie do czyszczenia części elektronicznych i styków. Środki zawierające chlor i fulor (CFC) zostały zastąpione przez inne - HFC, gdyż nie niszczą one warstwy ozonowej. EPA opracowała metodę pomiaru zdolności środka chemicznego do niszczenia ozonu -jest to średnia wagowa sumy zdolności poszczególnych składników danego związku. W przypadku freonu F12, wykorzystywanego w samochodowych układach klimatyzacji, wynosi ona 1,0. Dla większości produkowanych obecnie środków typu CFC waha się ona pomiędzy 0,0 a 0,1, a dla środków wykorzystujących CFC i rozpuszczalniki chlorowane - 0,75 i więcej.
Podstawowe środki czyszczące Znaczna liczba producentów i serwisów skłania się ku stosowaniu alkoholi i acetonu, a także innych środków nie wpływających na poszerzanie się dziury ozonowej oraz zgodnych z przepisami prawnymi i powszechną modą na ochronę środowiska. Ostatnio na rynku pojawiły się nowe, ulegające biodegradacji środki chemiczne, bazujące na kwasach cytrynowych. Stają się one coraz popularniejsze i w wielu przypadkach są wydajniejsze od stosowanych dotychczas środków czyszczących. Otrzymuje się je ze skórek owoców, które nadają im mocny, ale i przyjemny zapach. Innym rodzajem terpentyn jest terpentyna otrzymywana z drzew ananasowych. Należy zachować ostrożność przy posługiwaniu się tymi środkami, ponieważ mogą spowodować rozpuszczenie niektórych plastików, w szczególności gum silikonowych i PCW.
Musisz być pewien, że środek, którego masz zamiar użyć, jest niegroźny dla części komputera. W większości wypadków oznacza to, że środek jest czysty chemicznie i nie ma zanieczyszczeń. Nie należy używać na przykład alkoholu salicylowego do czyszczenia elektroniki i styków, ponieważ zawiera on różne perfumy, wodę i inne zanieczyszczenia. Powinieneś używać środków płynnych, ponieważ spray jest dość często marnotrawstwem. Jeżeli jednak już się na niego zdecydujesz, należy spryskać nie bezpośrednio czyszczoną powierzchnię, ale szmatkę i dopiero nią wycierać dany element.
Środki do czyszczenia styków i wtyków Są bardzo podobne do środków standardowych, lecz zawierają dodatkowo składnik smarujący. Zmniejsza on siłę potrzebną przy łączeniu i rozłączaniu kabli i wtyków, co obniża nacisk na podzespoły oraz chroni je przed korozją, znacznie wydłużając ich działanie. Zaleca się ich stosowanie w gniazdach i kartach rozszerzeń, różnych wtykach. Jeżeli chcesz. dowiedzieć się więcej o tych środkach, zajrzyj do paragrafów zatytułowanych „Środki chemiczne".
Środki odkurzające Do czyszczenia często używa się sprężonego powietrza (wydmuchiwanie kurzu i innych zanieczyszczeń). Kiedyś wykorzystywano środki takie jak freon, obecnie - CFC albo dwutlenek węgla, oba bezpieczne dla ozonu. Używaj ich ostrożnie; niektóre wytwarzają ładunek statyczny, gdy gaz wydostaje się z pojemnika. Stosuj tylko środki przeznaczone do czyszczenia sprzętu komputerowego i, jeżeli posiadasz, załóż opaskę antystatyczną. Możesz również zaopatrzyć się w oziębiacze w sprayu, wykorzystywane do szybkiego ochłodzenia elementu, tak aby przywrócić mu normalne warunki pracy. Nie używa się ich do naprawy urządzeń, ale do wykrywania uszkodzonych. Ponieważ często uszkodzenie związane jest z przegrzaniem, chwilowe ochłodzenie przywraca normalne warunki pracy. Jeżeli po ochłodzeniu dany element pracuje poprawnie, należy założyć, że najprawdopodobniej jest uszkodzony.
Odkurzacze Zamiast sprężonego powietrza możesz stosować odkurzacz, zwłaszcza w przypadku dużych komputerów i znacznego zabrudzenia. Odkurzacz wciąga zanieczyszczenia, w przeciwieństwie do sprężonego powietrza, które je tylko rozdmuchuje, powodując nieraz osadzanie kurzu na innych elementach. Sprężone powietrze jest jednak bardzo wygodne w przenoszeniu, a więc często stosowane przez firmy serwisowe. Można też użyć małych odkurzaczy - ze względu na rozmiary są bardzo poręczne. Produkowane są także odkurzacze specjalnie przeznaczone do użytku w pobliżu sprzętu elektronicznego - zostały tak wykonane, aby zminimalizować powstawanie ładunku. W przypadku zwykłego odkurzacza używaj opaski uziemiającej i nie dotykaj elementów metalową końcówką odkurzacza.
Szczoteczki i szmatki Podczas odkurzania wskazane jest użycie małej szczoteczki w celu poruszenia kurzu; uważaj jednak na powstawanie ładunku statycznego. Nie używaj jej bezpośrednio na płytkach drukowanych, lecz raczej do części takich jak wentylator czy klawiatura. Stosuj opaskę antystatyczną. Do czyszczenia kontaktów, złączy, głowic i innych wrażliwych elementów, używaj szmatek irchowych - nie pozostawiają resztek kurzu. Można je dostać w większości sklepów elektronicznych, są jednak znacznie droższe od zwykłych bawełnianych - tych lepiej nie stosuj, gdyż pozostawiają włoski, które mogą być przewodzące.
Mogą dostać się do głowicy dysku, powodując jego porysowanie. Kiedyś do czyszczenia kontaktów na płytach polecałem również gumkę do ołówka. Testy jednak pokazały, że nie był to najlepszy pomysł - podczas takiego czyszczenia pozostają resztki gumki i wytwarza się ładunek statyczny. Ładunek ten może być bardzo groźny dla płyty i jej elementów, szczególnie w przypadku układów niskonapięciowych, wytwarzanych z użyciem najnowszej technologii. Stosowanie gumki ściera również warstwę pozłacającą na stykach i odsłania metalizację, narażając płytę na przyśpieszoną korozję. Niektóre firmy oferują chusteczki nasączone płynem do czyszczenia styków. Stosując je, nie podejmujesz ryzyka powstania ładunku elektrostatycznego lub starcia powłoki ze złota.
Oleje silikonowe Możesz je stosować do smarowania drzwiczek napędu dyskietek, szyny głowicy dysku (head slider rails), a także wałka, po którym porusza się głowica drukarki. Używanie oleju silikonowego zamiast zwykłego oleju spowodowane jest tym, że nie przyciąga on kurzu i innych zanieczyszczeń. Dozuj go małymi porcjami, rozpylając tylko na czyszczone elementy, ponieważ łatwo może się dostać tam, gdzie nie powinien, np. do twardego dysku. Nałóż małą ilość oleju na patyczek z watką lub szmatkę i rozprowadź na elementy. Możesz również nasmarować szynę głowicy drukarki. Podczas opisanych powyżej czynności może powstawać ładunek elektrostatyczny; dlatego, aby nie narazić czyszczonych elementów na uszkodzenie, wskazane jest używanie antystatycznej opaski uziemiającej.
Jak zdobyć potrzebne narzędzia i środki czyszczące W większość narzędzi i środków czyszczących zaopatrzysz się w sklepach elektronicznych. Firma Chemotronics specjalizuje się w produkcji środków do czyszczenia komputerów i sprzętu elektronicznego.
Rozkładanie i czyszczenie komputera Aby dobrze przeczyścić komputer, musisz go chociaż częściowo rozłożyć. Niektórzy wyciągają nawet płytę główną. Będziesz miał ułatwione zadanie, ale ze względu na oszczędność czasu wystarczy, że będzie ona tylko odsłonięta. Musisz wyciągnąć wszystkie karty rozszerzeń i dyski. Głowice napędu dyskietek możesz przeczyścić dyskietką czyszczącą, jeśli jednak chcesz naoliwić drzwiczki napędu dyskietek oraz przeczyścić płytkę dysku i złącza, wskazane jest jego odkręcenie. Podobnie powinieneś postąpić z twardym dyskiem: przeczyść płytkę oraz złącza i nałóż warstwę oleju silikonowego na przewód uziemiający. Pamiętaj, aby przed wymontowaniem dysku zrobić odpowiednie archiwa.
Umieszczanie układów w podstawkach Jedną z ważnych czynności konserwacyjnych jest zapobieganie efektowi wychodzenia układów z podstawek (chip creep). Podczas nagrzewania i chłodzenia komputera następuje fizyczne zjawisko rozszerzania i kurczenia się elementów, co powoduje, że układy umieszczone w podstawkach wychodzą z nich. Dlatego, od czasu do czasu należy sprawdzić ułożenie układów i ewentualnie docisnąć. Układy pamięci SIMM i DIMM są umieszczone w specjalnych gniazdach z zatrzaskami i im powyższy efekt nie grozi. Natomiast pamięci SIPP (Single Inline Pin Package) są układami z pinami i mogą wychodzić z gniazda. Podobnie procesor, pamięć ROM i ko-procesor. Pozostałe układy są przylutowane.
W różnych komputerach różnie to wygląda - w jednym dany układ jest przylutowany, w innym znajduje się w podstawce, nawet w przypadku tego samego producenta. Wynika to nieraz z problemów z zakupem danego układu. Producent, zamiast wstrzymać produkcję, decyduje się umieścić podstawkę w miejsce układu. Gdy element będzie dostępny, wkłada go do podstawki. W wielu nowych komputerach procesory są umieszczane w gniazdach ZIF z dźwigien-ką zwalniającą przytrzymywanie układu. Zjawisko wychodzenia układów z podstawek prawie tu nie występuje. Aby się upewnić, że wszystkie układy są dobrze umieszczone w podstawkach, przytrzymaj jedną ręką płytę od spodu, a kciukiem drugiej ręki przyciśnij układ. W przypadku dużych układów, jak procesor czy koprocesor, naciśnij z jego dwóch końców. Usłyszysz charakterystyczny dźwięk, gdy układ wskoczy na swoje miejsce. Ze względu na konieczność użycia dużej siły przy powyższych czynnościach, zalecane jest wymontowanie płyty. Szczególnie niebezpieczne dla płyty głównej jest dociskanie układów bez przytrzymywania płyty z drugiej strony. Zbyt duży nacisk może spowodować jej nadmierne wygięcie, a nawet pęknięcie. Plastikowe zatrzaski przytrzymujące płytę w pewnej odległości od obudowy są zbyt rzadko rozmieszczone, aby były wystarczającym zabezpieczeniem. Dociskaj układy na zamontowanej płycie tylko wtedy, gdy masz odpowiednie zabezpieczenie od jej spodu. Operacja sprawdzania ułożenia układów powinna być przeprowadzana mniej więcej raz na rok - może to i dziwne, ale po tym czasie będą widoczne wystające układy.
Czyszczenie płyt Po dociśnięciu układów wyczyść płytę i wszystkie złącza. Użyj środka czyszczącego i nie mechacącej się szmatki. Najpierw usuń kurz i inne większe zanieczyszczenia, potem przeczyść złącza i styki. Najlepiej użyć specjalnego odkurzacza do sprzętu elektronicznego lub sprężonego powietrza szczególnie skuteczne przy usuwaniu kurzu z płyty. Odkurz następnie zasilacz, szczególnie w okolicach wentylatora - polepszy to przepływ powietrza chłodzącego. Nie rozbieraj zasilacza; wystarczy go przedmuchać.
Uważaj na ładunek elektrostatyczny, który może uszkodzić czyszczone elementy, szczególnie pod koniec zimy, kiedy jest bardzo sucho i powietrze jest naelektryzowane. Możesz użyć środków antystatycznych w celu zredukowania prawdopodobieństwa uszkodzeń. Polecam stosowanie opaski antystatycznej połączonej z uziemieniem na karcie lub płycie. Inną metodą jest trzymanie palca na uziemieniu płyty lub karty. Najłatwiej zapewnić dobre uziemienie nie wymontowując płyty.
Czyszczenie złączy i styków Czyszczenie złączy i styków podnosi jakość połączeń pomiędzy podzespołami komputera. Na płycie musisz przeczyścić gniazda kart rozszerzeń, zasilania, klawiatury i głośnika, na karcie rozszerzeń - grzebieniowe styki i, jeżeli występują, złącza. Nałóż niewielką ilość środka czyszczącego na szmatkę. Jeżeli używasz sprayu, rozpyl go z dala od czyszczonych elementów również na szmatkę i zaczekaj, aż w nią wsiąknie. Przetrzyj złącze. Do tego celu możesz również wykorzystać specjalne nasączone chusteczki, które dodatkowo pokrywają warstwą ochronną czyszczone powierzchnie.
Na płycie głównej zwróć specjalną uwagę na gniazda rozszerzeń. Nie żałuj środka czyszczącego i przeczyść je dokładnie. Nie przejmuj się, jeżeli kapnie go trochę na płytę -jest całkowicie bezpieczny i nie uszkodzi elementów. Zetrzyj kurz z pozłacanych styków kart rozszerzeń, a następnie z innych gniazd na płycie: gniazda klawiatury, zasilacza głośnika. Przetrzyj także miejsca uziemienia płyty. Przy czyszczeniu kart rozszerzeń zwróć specjalną uwagę na grzebieniowe styki karty -są one często dotykane palcami, co powoduje natłuszczenie ich i brudzenie, a to pogarsza jakość połączenia z płytą. Najlepiej czyścić kartę środkiem z dodatkiem oleju silikonowego, który dodatkowo ułatwi wkładanie karty do gniazda i zabezpieczy styki przed korozją. Przeczyść również wszystkie kable i złącza w komputerze - dysków, zasilacza i innych.
Czyszczenie klawiatury i myszy Klawiatury i myszy są zwykle bardzo zanieczyszczone, ze względu na częste ich dotykanie. Jeśli zajrzysz kiedyś do środka klawiatury, zdziwisz się, co tam można znaleźć. Klawiaturę najlepiej czyścić odkurzaczem. Można także obrócić ją do góry dnem i przedmuchać sprężonym powietrzem. W ten sposób pozbędziemy się kurzu i innych zanieczyszczeń, a także unikniemy ewentualnych problemów z nie działającymi klawiszami i brudnymi stykami. Jeśli jakiś klawisz nie działa lub przerywa, zastosuj środek do przemywania styków. Najlepiej najpierw ściągnąć klawisz, a następnie rozpylić środek czyszczący. Z reguły nie trzeba rozbierać całej klawiatury. Większość myszy czyści się bardzo prosto. Kulka myszy umieszczona jest w specjalnym zamykanym otworze u dołu. Przekręcając zamknięcie, wyciągniesz ją. Wyczyść zwykłym środkiem bez dodatków np. oleju silikonowego - kulka jest gumowa i nie ma potrzeby dodatkowo jej konserwować. Następnie przeczyść rolki myszki. Systematyczne czyszczenie myszki wpłynie na płynność ruchów wskaźnika na ekranie. Polecam również stosowanie podkładek pod mysz, co zapobiegnie zbieraniu przez myszkę kurzu i zanieczyszczeń ze stołu. Jeśli chcesz uniknąć czyszczenia myszki, polecam myszkę Honeywell. Jest to nowy rewolucyjny wzór z dwoma kółkami zamiast konwencjonalnej kulki i rolek. Kółka te jeżdżą bezpośrednio po stole, nie są wrażliwe na kurz i brud. Ponieważ sama myszka jest zabudowana, kurz nie może też wniknąć do środka i zanieczyścić światłoczułych sensorów. Myszką tą bardzo dobrze się pracuje na każdej powierzchni, jest całkowicie niewrażliwa na zabrudzenie i nie trzeba jej czyścić. Również inne urządzenia wskazujące, jak trackpoint (wytwarzany przez IBM) czy glide-point (produkowany przez firmę Alps), nie wymagają poważnych zabiegów konserwacyjnych - są całkowicie obudowane i do poruszania wskaźnika używają przetwornika czułego na dotyk. Ponieważ są obudowane, czyścić je trzeba tylko z zewnątrz - wystarczy przetrzeć niewielką ilością środka czyszczącego, aby usunąć tłuszcz zbierający się na nich podczas trzymania w ręce.
Konserwacja twardego dysku Niektóre procedury chronią dane na dysku i zapewniają, że dysk pracuje efektywnie, inne ograniczają zużycie dysku, co przedłuża czas jego pracy. Wykonując systematycznie kilka prostych komend, zapewnisz wysoki poziom ochrony danych. Komendy te zapewniają archiwizację (a także odtwarzanie) krytycznych obszarów twardego dysku, w przypadku uszkodzenia których traci się dostęp do wszystkich plików.
Defragmentacja Po pewnym czasie, gdy zapisujesz i kasujesz pliki na dysku, ulegają one fragmentacji. Oznacza to, że zostały umieszczone w nieciągłych obszarach na dysku. Aby chronić dysk i pliki, należy od czasu do czasu przeprowadzić defragmentację. Po defragmentacji wszystkie pliki znajdą się w sąsiednich sektorach, a ruchy głowicy i zużycie dysku będą ograniczone. Poza tym, polepszy się prędkość odczytu danych z dysku. Drugim ważnym elementem, moim zdaniem ważniejszym, jest to, iż w przypadku poważniejszej awarii, np. uszkodzenia tablicy partycji lub głównej kartoteki, łatwo jest odzyskać dane, jeżeli pliki leżą w ciągłych obszarach. Z drugiej strony, jeżeli części plików są zapisywane w różnych miejscach na dysku, nie ma możliwości ustalenia, który kawałek należy do którego pliku. Z tego powodu polecam przeprowadzać defragmentację dysku raz na tydzień lub po każdej pełnej archiwizacji. Większość programów defragmentujących posiada trzy funkcje: * Defragmentacja plików * Upakowywanie plików (łączenie wolnej przestrzeni) * Sortowanie plików Podstawową funkcją jest defragmentacja, ale większość programów wykonuje również upakowywanie plików. Jest ono opcjonalne w niektórych programach ze względu na to, iż zajmuje dodatkowy czas. Funkcja ta układa pliki w początkowym obszarze dysku, pozostawiając wolną przestrzeń na jego końcu. Ogranicza tym samym przyszłą defragmentację przez eliminowanie pustych przestrzeni w środku dysku. Ponieważ wolna przestrzeń na dysku znajduje się w jednym miejscu, każdy nowy plik może być w sposób ciągły zapisany na dysk. Ostatnia funkcja, sortowanie plików, nie jest konieczna, ale jest opcjonalnie wykonywana przez wiele programów. Zajmuje ona bardzo dużo czasu i ma nikły wpływ na polepszenie prędkości odczytu danych. Może być najwyżej przydatna w większych awariach przy odtwarzaniu danych, kiedy nie wiesz, w jakiej kolejności pliki były na dysku. Zaleta to stosunkowo mała, w porównaniu z utrzymywaniem plików w ciągłych obszarach, gdy niezależnie od porządku plików na dysku stosunkowo łatwo można dane odzyskać. Nie wszystkie programy defragmentujące posiadają tę funkcję, a dodatkowego czasu potrzebnego na jej wykonanie nie rekompensują korzyści. Inne programy umożliwiają ustawienie porządku plików w kartotekach, co jest znacznie szybsze i prostsze w porównaniu z sortowaniem plików na dysku. W skład systemu operacyjnego Windows 9x wchodzi program do defragmentacji dysków, obsługujący partycje typu FAT16 oraz FAT32. Jeżeli jednak chcesz korzystać z programu innych producentów, jak na przykład Norton Speed Disk z pakietu Norton Utilities, upewnij się, że program ten obsługuje typ partycji, który właśnie chcesz de fragmentować. Uruchamianie programu, który obsługuje tylko partycje FAT16, na dysku sformatowanym w systemie FAT32 może spowodować poważne problemy. Przed uruchomieniem takiego programu, dobrze jest sprawdzić dysk pod kątem błędów - na przykład programem Scan Disk Windowsa 9x czy też Norton Disk Doctor, nawet wtedy, gdy się wydaje, że dysk jest ich całkowicie pozbawiony. Upewnisz się w ten sposób, że z dyskiem nie ma żadnych problemów, przed rozpoczęciem procesu defragmentacji - a nie w czasie jego trwania.
Windows 98 zawiera program „Kreator konserwacji" do automatyzacji pewnych czynności. W prosty sposób można kazać mu sprawdzać dyski w określonym czasie, jak również je defragmentować oraz kasować zbędne pliki. Można na ten cel przeznaczyć godziny wolne od pracy - na przykład nocne, tak aby cykl testów i optymalizacji nie przerywał normalnej pracy.
Programy antywirusowe Obecnie zarówno Microsoft, jak i IBM dostarczają standardowe programy antywirusowe w systemach operacyjnych. Program Microsoftu to w rzeczywistości okrojona wersja programu antywirusowego firmy Central Point. IBM natomiast umieścił własny program. Jednym z najlepszych programów jest „SCAN" firmy McAfee Associates; jest również jednym z łatwiejszych, gdyż uruchamia się go wprost z linii komend. Można go zdobyć w BBS-ie i jest często kupowany przez duże firmy. Ponieważ Windows 95 nie posiada żadnego programu antywirusowego, użytkownicy lego systemu muszą dodatkowo zaopatrzyć się w taki program. Nieważne, jaki program się stosuje, ważne, aby to robić systematycznie, szczególnie przed archiwizowaniem danych. Zapewni to usunięcie wirusa przed jego rozprzestrzenieniem się w systemie.
Procedury konserwacji biernej Konserwacja bierna obejmuje działania dotyczące zapewnienia odpowiednich warunków pracy komputera, zarówno fizycznych (m.in. odpowiednia temperatura, ilość włączeń i wyłączeń komputera, zapylenie, wstrząsy i wibracje), jak i elektrycznych (m.in. ładunek elektrostatyczny, wahania napięcia, zakłócenia fal elektromagnetycznych).
Sprawdzanie warunków pracy komputera Jedną z najczęściej zaniedbywanych przez użytkowników komputerów rzeczy jest zapewnienie im odpowiednich warunków pracy. Komputery nie są wrażliwe na warunki zewnętrzne i dobrze pracują tam, gdzie ludzie. Jednak czasami traktujemy komputer jak zwykły kalkulator, co powoduje liczne problemy. Przed zakupem komputera przygotuj miejsce wolne od zanieczyszczeń. Nie stawiaj komputera przed oknem, gdyż nie powinien być narażony na bezpośrednie działanie światła słonecznego i zmiany temperatury; temperatura powinna być stała. Napięcie powinno być dostarczane z uziemionych gniazd, powinno być stałe i bez zakłóceń. Komputery powinny się znajdować z dala od nadajników i innych źródeł fal elektromagnetycznych.
Ogrzewanie i chłodzenie Utrzymywanie stałej temperatury jest bardzo ważne dla poprawnej pracy komputera. Duże wahania przyczyniają się do bardzo poważnych problemów, np. wzmożonego efektu wychodzenia układów z podstawek. Jeśli w krótkim okresie pojawią się duże zmiany, może to doprowadzić do przerwania ścieżek na płytkach, pękania połączeń lutowanych, szybszego korodowania styków i uszkodzenia elementów półprzewodnikowych. Temperatura ma również wpływ na dyski. Zapisywanie danych w różnych temperaturach może powodować, że dane będą umieszczane w różnych miejscach w odniesieniu do środka ścieżki, co może doprowadzić do problemów z zapisem i odczytem danych. Aby zapewnić odpowiednią temperaturę, najpierw musisz poznać, w jakich granicach może się ona zmieniać, zgodnie z zaleceniami producenta komputera. Powinny być podane dwa zakresy temperatur: jeden dla pracy komputera, a drugi dla przechowywania i transportu. IBM określa następujące zakresy dla swoich komputerów:
Praca komputera: Przechowywanie i transport:
15-32 st. C 10-43 st. C
Dla bezpieczeństwa dysku i danych na nim zapisanych unikaj gwałtownych zmian temperatury. Jeżeli nie można ich uniknąć, np. gdy dysk został dostarczony w zimie i wniesiony z zewnątrz do pomieszczenia, pozostaw dysk nie podłączony, aby dostosował się do nowej temperatury. W niektórych przypadkach może nawet dojść do skraplania się wody we wnętrzu dysku. Przed uruchomieniem go bezwzględnie należy pozwolić na samoczynne jej odparowanie. Większość producentów dołącza tabele z czasem potrzebnym na dostosowanie się dysku do temperatury pomieszczenia - czas ten waha się od kilku do 24 godzin. Zalecają oni również niewyciąganie dysku z opakowania, gdyż w przypadku bardzo niskich temperatur wzrasta prawdopodobieństwo skraplania się wody we wnętrzu dysku. W większości biur panuje odpowiednia temperatura do pracy komputera, ale sprawdź, czy dotyczy to również twojego.
Czy wyłączać komputer na noc Jak się właśnie dowiedziałeś, zmiany temperatury mogą powodować różne problemy, a największe zmiany, jakie w codziennej pracy występują, to rozgrzewanie się systemu po włączeniu zasilania. Dlatego należy ograniczyć ilość włączeń i wyłączeń komputera do niezbędnego minimum - zapewni mu to dłuższy żywot. Można to zrobić na dwa sposoby: albo pozostawić komputer cały czas wyłączony, albo włączony. Z oczywistych względów pozostaje tylko druga możliwość. W rzeczywistych warunkach trzeba również rozważyć takie czynniki jak koszt energii, zagrożenie pożarowe nie nadzorowanego sprzętu itp. Aby uświadomić sobie, na co narażony jest komputer i jego elementy przy włączaniu zasilania, zastanów się, kiedy najczęściej dochodzi do przepalenia żarówki - przy pierwszym włączeniu. Dzieje się tak ze względu na konieczność bardzo szybkiej (w czasie krótszym od jednej sekundy) zmiany temperatury z pokojowej na kilka tysięcy stopni. Prosty stąd wniosek, że żarówka pozostająca cały czas włączona działa dłużej niż ta, którą się włącza i wyłącza. Po włączeniu zasilania problemy przeważnie pojawiają się w zasilaczu. Wynika to z dużego poboru mocy przez wszystkie podzespoły, w porównaniu z zapotrzebowaniem podczas normalnej pracy. Ponieważ cały prąd dostarczany jest przez zasilacz, musi on wytrzymać duże obciążenie w pierwszych sekundach po włączeniu komputera, zwłaszcza, jeśli w komputerze jest kilka dysków. Mają one bardzo duże zapotrzebowanie mocy przy starcie komputera; może ono doprowadzić do przeciążenia i spalenia zasilacza. Kilka takich przypadków doświadczyłem. Aby zapewnić komputerowi jak najdłuższy żywot, utrzymuj temperaturę elementów półprzewodnikowych na w miarę stałym poziomie i ograniczaj liczbę włączeń do minimum. Jedynym sposobem jest niewyłączanie komputera w ogóle. Kiedyś zalecałem pozostawianie wszystkich komputerów włączonych 24 godziny na dobę, 7 dni w tygodniu. Jednym z powodów powstrzymujących mnie przed tym obecnie jest to, iż włączony komputer bez kontroli stanowi pewne zagrożenie pożarowe. Czasami monitory ulegają samozapaleniu na skutek zwarcia, wentylatory zacierają się powodując przegrzanie systemu. Nie polecam więc pozostawiania włączonego komputera w nie strzeżonym budynku. Innym problemem jest marnowanie energii elektrycznej. Wiele firm posiada specjalne programy wyłączające światło i inne odbiorniki, kiedy nie są używane. Wbrew pozorom, zapotrzebowanie na energię współczesnych urządzeń jest niebagatelne. Poza tym, wyłączone i zamknięte komputery są bardziej bezpieczne niż nie nadzorowane. Powyższe czynniki mogą powstrzymywać cię przed pozostawianiem włączonych komputerów na noc czy na weekend. Musisz jednak pójść na kompromis.
Włączaj komputery tylko raz dziennie - wielu użytkowników nie stosuje się do tego, zwłaszcza w przypadku współdzielonych komputerów. Każdy, po zakończeniu pracy, wyłącza komputer i następna osoba musi go ponownie uruchamiać. W przypadku takich komputerów częściej występują problemy. Jeśli budynek, w którym pracujesz, posiada programowany termostat, to masz dodatkowe zmartwienie. Niektóre termostaty są tak zaprogramowane, że wyłączają ogrzewanie na noc lub na weekend i szybko podnoszą temperaturę przed godzinami pracy. Na przykład w Chicago temperatura na zewnątrz w zimie spada do -30 st. C, a wewnątrz budynku, podczas weekendu - do 10 st. C. W poniedziałek rano, kiedy ogrzewanie jest włączone dopiero od godziny, a może krócej, dyski pracują w temperaturze ok. 15 st. C, a po włączeniu komputera w ciągu 20 minut ich temperatura wzrośnie do ponad 50 st. C. Jeśli posiadasz tanie dyski, musisz się liczyć z tym, że mogą powstać problemy z poprawną pracą, a nawet z uruchomieniem systemu operacyjnego. Jeśli nie pozostawiasz komputera cały czas włączonego, daj mu przynajmniej 15 minut na rozgrzanie się, zanim będziesz zapisywał na nim dane. Włącz komputer i zrób sobie kawę albo przeczytaj gazetę -będziesz miał wtedy pewność, że dane są poprawnie zapisywane (szczególnie dotyczy to tańszych dysków). Gdy pozostawisz komputer włączony przez dłuższy czas, pamiętaj o wyłączaniu monitora albo o używaniu wygaszaczy ekranu, w przeciwnym wypadku może dojść do wypalenia luminoforu. (Monitory monochromatyczne są bardziej odporne od kolorowych). Zwróć uwagę na monitory często wyświetlające tę samą informację, np. na dworcach kolejowych czy lotniskach - widać ją nawet, gdy monitory są wyłączone. Współczesne komputery posiadają zdolność wygaszania ekranu odpowiednią komendą systemową. Staraj się z tego korzystać - zaoszczędzisz trochę prądu i ochronisz monitor. Monitory można wygaszać ręcznie bądź automatycznie: * Ręcznie. Skręć jasność i kontrast monitora lub wyłącz go całkowicie. Nie jest to najlepsza metoda, bo musisz pamiętać o tej czynności. * Automatycznie. Jest wiele programów wyłączających ekran lub wyświetlających różne obrazki w określonych odstępach. Wygaszacze ekranu są częścią składową większości graficznych systemów operacyjnych; umożliwiają ustawienie czasu opóźnienia, po którym się włączają. Pod DOS-em musisz skorzystać z dodatkowych programów rezydentnych, które liczą czas od ostatniego ruchu myszką lub naciśnięcia klawisza i po jego upływie albo całkowicie odcinają sygnał do monitora, albo wyświetlają na nim różne obrazki. W nowoczesnych ekologicznych komputerach posiadających opcję zarządzania energią, specjalne wygaszacze ekranu nie są już konieczne, a nawet trochę przeszkadzają, gdyż utrzymują monitory cały czas w pełni zasilane. W komputerach z wbudowanym systemem zarządzania energią, występującym w większości BlOS-ów i w Windows 95, wygaszacze ekranu służą bardziej środowisku niż praktycznym celom.
Elektrostatyczność Elektrostatyczność może być powodem wielu problemów, szczególnie zimą, kiedy jest niska wilgotność powietrza, lub w bardzo suchym klimacie, gdzie wilgotność jest niska przez cały rok. Wyładowania elektrostatyczne z reguły nie są groźne na zewnątrz komputera, a jedynym efektem ich działania mogą być błędy parzystości lub „zawieszanie" się systemu. Ale tego typu uszkodzenia możesz spowodować sam przechodząc w pobliżu komputera. Powstające problemy najczęściej wynikają z nieprawidłowego uziemienia.
Zawsze używaj trójżyłowego kabla z uziemieniem i podłączaj komputer do gniazda z uziemieniem. Jeśli masz jakieś wątpliwości co do jakości uziemienia, zaopatrz się w specjalny tester, który umożliwi ci proste sprawdzenie gniazda. Kiedy tylko rozkręcasz komputer lub wyciągasz z niego podzespoły, bardzo uważaj na ładunek statyczny, gdyż możesz trwale uszkodzić elementy. Zawsze zalecam łapanie najpierw za uziemiony punkt, np. za uchwyt karty, aby zminimalizować ryzyko przejścia ładunku na układy karty. Najprostszym sposobem uniknięcia problemów z ładunkiem statycznym jest zapewnienie prawidłowego zasilania z odpowiednim uziemieniem. Dodatkowo trzeba chronić komputer, aby ładunek nie dostał się do wnętrza, a to osiągniemy przez prawidłowe uziemienie obudowy, które stanowi uziemienie dla wszystkich podzespołów komputera. W większości przypadków powyższe zabezpieczenia powinny być wystarczające. W szczególnie niekorzystnych warunkach możesz stosować matę antystatyczną. Pamiętaj, aby najpierw dotknąć maty, a dopiero potem elementów w komputerze, by zapewnić odprowadzenie ładunku do ziemi. Jeśli problemy będą dalej występowały, sprawdź, czy instalacja elektryczna posiada właściwe uziemienie. Zdarzają się budynki z gniazdami z niewłaściwym uziemieniem. Możesz samodzielnie sprawdzić uziemienie za pomocą testera.
Zakłócenia w sieci elektrycznej Do poprawnej pracy komputer potrzebuje stałego i wolnego od zakłóceń napięcia. W normalnej sieci zdarzaj ą się jednak wahania w zależności od jej obciążenia. Niektóre odbiorniki mogą również powodować powstawanie krótkich impulsów o bardzo wysokim napięciu, dochodzącym nawet do 1000 V, które mogą spowodować uszkodzenia komputera. Na szczęście, są stosunkowo rzadkie. Mogą one występować nawet w dedykowanych sieciach elektrycznych; wszystko zależy od jakości napięcia w sieci miejskiej. Podczas instalacji systemu komputerowego pamiętaj o następujących rzeczach: * Jeżeli to możliwe, komputer powinien być podłączony do wydzielonej sieci elektrycznej, zabezpieczonej osobnym bezpiecznikiem. Nie wyeliminuje to całkowicie zakłóceń, ale na pewno pomoże w ich zmniejszeniu. * Obwód elektryczny powinien posiadać dobre, niskoomowe uziemienie, odpowiednie napięcie, być wolny od zakłóceń i nagłych spadków napięcia. * Obwód powinien być trzyżyłowy. Niektórzy dopasowują wtyczki z uziemieniem do gniazd bez uziemienia - tego rozwiązania stanowczo nie polecam. Przewód uziemiający ma pełnić określoną rolę. * Problemy związane z zakłóceniami w sieci wzrastają wraz z opornością obwodu, która jest funkcją przekroju i długości przewodu. Aby obniżyć oporność, używaj przedłużaczy tylko tam, gdzie to jest absolutnie niezbędne. * W przyszłości na pewno będziesz podłączał do sieci nowe urządzenia, staraj się więc zaplanować odpowiednią ilość gniazdek dla sprzętu niekomputerowego, aby uniknąć podłączania zbyt wielu urządzeń do jednego obwodu. Najgorsze dla komputerów są klimatyzatory, ekspresy do kawy, ksera, drukarki laserowe, farelki itp. Stanowią one duże obciążenie dla sieci zasilającej i powodują czasami poważne zakłócenia. Byłem świadkiem, jak w pewnym biurze codziennie o 9:05 rano komputery same się wyłączały - wytłumaczenie było proste: był to czas włączania ekspresów do kawy. Ze względu na duży pobór prądu nie podłączaj drukarki laserowej i ksera do obwodu zasilającego komputer.
Innym poważnym problemem są długie linie sieci elektrycznej, z licznymi gniazdkami. Nie zazdroszczę temu, kto znajduje się na samym końcu takiej linii. Jako przykład z życia wzięty mogę przytoczyć liczne problemy z pamięcią (parity check) występujące w komputerze podłączonym do jednej linii zasilającej stosunkowo dużo komputerów. Wszelkie próby naprawy były nieskuteczne, a wskazywany błąd nie ułatwiał zadania (normalnie wskazuje na problemy z zasilaniem: albo na zasilacz komputera, albo na zewnętrzną linię elektryczną). Pewnego dnia zobaczyłem, że błąd parzystości (parity check) na tym komputerze pojawia się w momencie włączania drukarki laserowej ustawionej dwa biurka dalej. Podłączenie komputera do osobnej linii rozwiązało problem. Korzystając z poniższych wskazówek zapewnisz odpowiednią jakość napięcia w sieci elektrycznej.
Zakłócenia na falach radiowych Zakłócenia na falach radiowych są często bagatelizowane. Obejmują one wszystkie zakłócenia wywoływane przez nadajniki w pobliżu komputera; zakłócenia mogą być powodowane zarówno przez nadajnik stacji radiowej o mocy 50 kW, jak i przez małą stację. Zdarza się też, że telefony komórkowe powodują pojawianie się znaków na ekranie, jakby jakaś niewidzialna istota pisała na klawiaturze. Czasami te zakłócenia mogą powodować „zawieszanie" się systemu. Nie są to przypadki łatwe do rozwiązania. Nieraz pomaga obrócenie komputera (sygnały radiowe są z natury kierunkowe) czy użycie ekranowanych kabli, np. kabla klawiatury. Jednym z rozwiązań jest stosowanie kabli z dodatkowym pierścieniowym rdzeniem żelaznym, umieszczonym na kablu w celu obniżenia odbioru fal elektromagnetycznych. Jeśli uda się zlokalizować kabel, w którym występują zakłócenia, możesz użyć tego pierścienia. Są również w sprzedaży specjalne pierścienie przeznaczone do nakładania na kabel - wyglądają jak grubościenny walec z otworem, przecięty na pół. Połóż kabel w środku jednej połówki, przyciśnij drugą i zatrzaśnij ją. Takie pierścienie są bardzo praktyczne dla kabli z wtyczkami. Również IBM wytwarza ok. dwumetrowe kable klawiatury z wbudowanym pierścieniem (part number 27F4984) znacznie redukujące zakłócenia fal radiowych. Kabel taki posiada wtyczkę 6-pinową DIN po stronie komputera i standardową wtyczkę SDL (Shielded Data Link) po stronie klawiatury. Kosztuje ok. 40 dolarów. Najlepszym i najprostszym sposobem wyeliminowania zakłóceń elektromagnetycznych jest ograniczenie ich emisji. Nie będziesz przekonywał dyrektora stacji radiowej, aby zaprzestał działalności, ale w małych nadajnikach użyj filtru, który ograniczy emisję. Niestety, czasem jedynym rozwiązaniem jest wyłączenie nadajnika lub przeniesienie go odpowiednio daleko od komputera.
Kurz i zanieczyszczenia Wentylator w zasilaczu wprowadza do wnętrza komputera brud, kurz, dym i inne zanieczyszczenia. Nie wpływają one korzystnie na pracę komputera. Jeśli dodatkowo pracuje on w bardzo ciężkich warunkach, wskazane jest zakupienie komputera specjalnie do nich przystosowanego. Kiedyś takie komputery produkował IBM, ale po wprowadzeniu do sprzedaży PS/2 sprzedał licencje na przemysłowe komputery PS/2 innym firmom. Również wielu innych producentów wytwarza przemysłowe wersje swoich komputerów. Różnią się one od zwykłych PC-tów głównie układem chłodzenia. Duże wentylatory wciągają powietrze do wnętrza komputera, w przeciwieństwie do większości standardowych komputerów, gdzie powietrze jest wypychane na zewnątrz. Dodatkowo, powietrze przechodzi przez filtr, który należy systematycznie czyścić i wymieniać.
Powietrze dostaje się do środka tylko przez układ wentylator-filtr, tak więc jest wolne od zanieczyszczeń. Powyższe komputery mogą posiadać również specjalne klawiatury, nie przepuszczające cieczy i zanieczyszczeń. Na klawiaturach z płaską membraną niezbyt dobrze się pisze, ale za to są bardzo odporne na zanieczyszczenia; inne z kolei przypominają standardowe klawiatury i posiadają plastikowe membrany przykrywające wszystkie klawisze. Takie membrany możesz dodać do normalnej klawiatury, aby zabezpieczyć ją przed zanieczyszczeniami. Problemy mogą powodować również nowe nawilżacze, wykorzystujące ultradźwięki do wytwarzania mgiełki wodnej, rozpylanej w powietrzu. Nawilżanie powietrza zmniejsza ilość ładunku statycznego, szczególnie w suchym klimacie. Powstają jednak nowe problemy. Zwróć uwagę na przypominający popiół osad na układach pochodzi on ze związków chemicznych znajdujących się w parującej wodzie. Jedynym rozwiązaniem jest używanie wody destylowanej. Jeżeli zapewnisz odpowiednie zewnętrzne warunki do pracy komputera, będzie on pracował lepiej i dłużej. Nie będziesz też musiał zbyt często czyścić jego wnętrza.
Rozdział 4.
Płyty główne Płyta główna jest najważniejszą częścią komputera PC. W języku angielskim nazwy takie jak motherboard, main board, system board czy planar są stosowane zamiennie i oznaczają płytę główną. Nazwy system board czy planar są stosowane przez niektórych producentów komputerów, np. przez firmę IBM. W tym rozdziale znajdzie się przegląd różnych rodzajów dostępnych na rynku płyt głównych i ich podzespołów, omówione także zostaną interfejsy znajdujące się na płycie głównej.
Wymiana płyty głównej na nowszą Niektórzy producenci robią wszystko, co w ich mocy, aby ich produkty były jak najmniej zgodne z podzespołami innych producentów. Części zapasowe, usługi serwisowe czy nowsze wersje podzespołów (upgrade) dostępne są praktycznie tylko u producentów, a ich ceny znacznie przewyższają ceny analogicznych podzespołów i usług standardowych komputerów PC. Na przykład w razie awarii płyty głównej typu Baby-AT można bez trudu kupić nową płytę po bardzo korzystnej cenie, z procesorem o pożądanej częstotliwości. Nową płytę po prostu wkłada się do obudowy i przykręca. Gdyby zdarzyła się awaria płyty w jednym z nowszych komputerów firm IBM, Compaq, Hewlett-Packard, Packard-Bell, Gateway, ASP lub innego znanego producenta, wówczas wyboru nie ma - jesteśmy skazani na płytę główną pochodzącą od tego samego producenta, bez możliwości wyboru szybszego procesora niż ten, który był na zepsutej płycie. Innymi słowy, rozbudowa lub naprawa takiego markowego komputera poprzez wymianę płyty głównej jest skomplikowana i zazwyczaj się nie opłaca.
Czym należy się kierować przy zakupie płyty głównej Jako konsultant komputerowy, jestem często proszony o radę przy zakupie komputera. Wielu moich kolegów po fachu pobiera bardzo wysokie honorarium za tego rodzaju usługi. Osoby nie posiadające odpowiedniej wiedzy zamiast opinią konsultantów kierują się radami zamieszczanymi w czasopismach lub, co gorsza, radami znajomych. Aby takich przypadków było jak najmniej, opracowałem w punktach krótką listę, która powinna uprościć wybór płyty głównej. Opracowując tę listę wziąłem pod uwagę szereg ważnych aspektów, najczęściej pomijanych przy zakupach. Kierując się poradami z listy można mieć pewność, że dany komputer jest w pełni kompatybilny ze standardem PC i ma przed sobą przyszłość pod względem rozbudowy (upgrade) i ewentualnych napraw. Wybierając sprzęt komputerowy dobrze jest przyjąć punkt widzenia inżyniera. Należy stawiać sobie pytania o każdy szczegół. Np. należy wziąć pod uwagę przyszłe zastosowania i ewentualną rozbudowę komputera. Bardzo ważną rzeczą jest dostępność profesjonalnego serwisu technicznego (tzn. poziom serwisu technicznego powinien być wyższy od poziomu zaawansowania przeciętnego użytkownika). Jakiego rodzaju będzie to pomoc? Czy wraz ze sprzętem jest dostarczona dokumentacja i czy jest ona w pełni wyczerpująca? Podsumowując, dobrym pomysłem przy zakupie komputera jest uważne przemyślenie punktów z listy. W ten sposób można dokonać oceny dowolnego komputera PC. Nie jest konieczne spełnienie wszystkich zaleceń z listy, lecz komputer, który nie spełnia więcej niż kilku punktów, nie jest godny polecenia. Najważniejsze są pierwsze punkty listy, punkty końcowe są mniej ważne (aczkolwiek według mnie każdy z nich ma duże znaczenie). W dalszej części rozdziału szczegółowo omówiono kryteria, według których była układana lista. *
Procesor. Płyta główna klasy Pentium powinna być wyposażona co najmniej w procesor
generacji Pentium MMX, wstawiony na podstawkę klasy Socket 7. Interesującym rozwiązaniem byłaby płyta 100 MHz typu Super Socket 7, przeznaczona dla najnowszych procesorów Cyrix oraz AMD. Płyta powinna umożliwiać elastyczną regulację napięcia. Raczej nie polecałbym już systemów opartych na zwykłym procesorze Pentium. Pentium II to w dzisiejszych czasach standard, którego zastosowanie należałoby przemyśleć w pierwszej kolejności. Najtańszym procesorem tej rodziny jest Celeron, wprowadzony na rynek przez Intel w połowie roku 1998. Jest to pełnosprawne Pentium II, z tym że pozbawione pamięci level 2 cache. Powoduje to, że procesor ten nie jest tak szybki jak Pentium II, ale mimo wszystko szybszy od standardowego Pentium. Rozbudowa takiego systemu w przyszłości jest o tyle prosta, że wymaga jedynie zmiany procesora na Pentium II - oba wykorzystują ten sam rodzaj płyt głównych i gniazdo Slot 1. * Podstawka pod procesor. Płyta główna Pentium powinna być zaopatrzona w przynajmniej jedno gniazdo typu ZIF, które spełnia założenia standardu Socket 7 (321-nóżkowego). Pożądana jest wbudowana regulacja napięcia zasilającego procesor. To ze względu na różnice w napięciach zasilających poszczególne modele procesorów. Taka uniwersalna płyta może być w prosty sposób przystosowana do zmienionego procesora. Płyty główne Pentium Pro (P6) posiadają gniazdo Socket 8 i mogą obsługiwać wiele procesorów. Płyty Pentium II posiadają gniazdo Slot l, ewentualnie Slot 2. Slot 2 znajduje zastosowanie głównie w serwerach opartych na procesorze Pentium II Xenon, a Slot l został przewidziany do użytku domowego. Płyty Slot l i Slot 2 mogą być przystosowane do użycia kilku procesorów jednocześnie. Jednak zanim zdecydujesz się na zakup drogiej płyty wieloprocesorowej, upewnij się, że twój system operacyjny jest w stanie ją wykorzystać. Na przykład Windows 95 oraz Windows 98 nie potrafią czerpać korzyści z dodatkowych procesorów. Windows NT, OS/2 i niektóre inne systemy potrafią. Częstotliwość taktowania płyty głównej. Płyta główna Pentium i Pentium Pro powinna pracować co najmniej z częstotliwością 66 MHz. Niektóre można przestawić do niestandardowej, ale funkcjonalnej prędkości 75 MHz. Płyty główne Pentium II są dostępne w wersjach 66 oraz 100 MHz. Proszę zauważyć, że praktycznie każdy procesor produkowany w obecnych czasach jest taktowany wielokrotnością sygnału płyty głównej. Na przykład Pentium II 350 oraz 400 i szybsze pracują z prędkością płyty głównej 100 MHz i z tego względu wymagają właśnie takiej płyty. Starsze od 333 MHz, z tą wersją włącznie, pracują z płytami taktowanymi sygnałem 66 MHz. Pamięć cache. Wszystkie płyty Pentium powinny być wyposażone w 256 lub 512 kB pamięci cache drugiego poziomu (ang. Level 2 cache), a niektóre mają nawet l MB. Procesory Pentium Pro i Pentium II używają wbudowanej pamięci Cache Level I i Level II, co powoduje, że na płytach głównych produkowanych dla tych procesorów nie będzie pamięci cache. Pentium Pro może mieć 256 kB, 512 kB lub l MB cache Level 2 wbudowanej w jego strukturę, a Pentium II 0kB (Celeron) - 512 kB do l MB, natomiast l MB i więcej posiadają procesory Pentium II Xenon. Pamięć cache drugiego poziomu współpracująca z procesorami Pentium powinna składać się z układów dostatecznie szybkich, aby mogły pracować z najwyższą możliwą częstotliwością płyty głównej. Dla maksymalnej częstotliwości płyty głównej równej 66 MHz czas dostępu do pamięci powinien wynosić 15 ns, dla płyt 75 MHz powinno to być 13 ns. Pamięć cache na płytach Pentium powinna składać się z układów Synchronous SRAM (Static RAM), nazywanej także Pipeline Burst SRAM. Pamięci SIMM/DIMM. Jeśli płyta główna ma trafić do starszego komputera, w którego dotychczasowej płycie głównej umieszczono 72-końcówkowe pamięci SIMM, dobrze byłoby, gdyby posiadała gniazda zarówno SIMM, jak i DIMM. Jeśli wraz z nową płytą główną kupujesz również nowe kości pamięci (zalecane), stanowczo polecam wybranie płyty głównej obsługującej 168-końcówkowe moduły DIMM (Dual Inline Memory Modules) pamięci SDRAM (Synchronous DRAM). Z powodu 64-bitowej architektury tych płyt głównych, 72-końcówkowe moduły SIMM
muszą być instalowane w odpowiadających sobie parach, podczas gdy pamięci DIMM są instalowane oddzielnie (jedna na 64-bitowy bank). Pamięć musi być kompatybilna z chipsetem płyty głównej i musi być dostosowana do częstotliwości pracy magistrali systemowej (66 lub 100 MHz). Nie zapomnij również porównać ilości pamięci, którą chcesz zainstalować, do ilości pamięci, którą obsługuje płyta główna. Standardowe komputery Pentium z chipsetami 430FX, VX lub TX umożliwiają buforowanie tylko do 64 MB pamięci systemowej, co praktycznie ogranicza możliwości rozbudowy do tej właśnie pojemności. Większość komputerów z procesorami Pentium II potrafi buforować 384 MB, a nawet więcej, dzięki czemu cała pamięć, jaką tylko możesz umieścić na płycie głównej, będzie buforowana. Procesory Pentium II pracujące z częstotliwością 333 MHz i wolniejsze mogą buforować do 512 MB RAM (zauważ, że większość płyt głównych nie umożliwia zamontowania tak dużej ilości pamięci), natomiast Pentium II pracujące z częstotliwością 350 MHz i wyższą są w stanie buforować do 4 GB pamięci systemowej. Choć minimum dla obecnie wydawanych aplikacji wynosi zazwyczaj 32 MB, może się zdarzyć, że będziesz potrzebować dużo więcej pamięci. Dlatego w większości nowych komputerów polecam instalowanie 64 MB. Najwyższą wydajność uzyskasz posiadając komputer obsługujący układy SDRAM (Synchronous DRAM) w wersji co najmniej 3,3V. Komputery przyszłości będą wykorzystywać jeszcze szybsze pamięci RDRAM (Rambus DRAM). * W komputerach spełniających ważne zadania powinno się instalować układy pamięci z kontrolą parzystości lub kodem korekcji błędów ECC; w tym celu należy się upewnić, czy płyta główna w pełni obsługuje operacje ECC. Większość chipsetów Pentium II robi to, podczas gdy większość chipsetów Pentium (serii 430) nie obsluguje operacji ECC. Zwróć uwagę, że wykorzystywane zazwy-czaj w komputerach z procesorami Celeron, zaprojektowane z myślą o sektorze tanich komputerów, płyty główne 440EX nie obsługują ECC i nie powinny być wykorzystywane do pracy ze spełniającymi ważne zadania aplikacjami. Na koniec zwróć również uwagę, że większość płyt głównych Pentium i Pentium II posiada 3 lub 4 gniazda DIMM. Powinieneś rozsądnie je obsadzać, by w przyszłości nie okazało się, że zanim rozbudujesz pamięć, będziesz musiał sprzedać jedną z już posiadanych kości, co zazwyczaj nie jest zbyt atrakcyjne cenowo. Typ magistrali. Płyty główne Pentium, Pentium Pro i Pentium II powinny mieć jedno lub więcej gniazd ISA i co najmniej trzy lub cztery gniazda PCI. Upewnij się, czy gniazda PCI spełniają wymogi standardu PCI 2.1 (zależy to przede wszystkim od chipsetu). Zwróć uwagę na rozmieszczenie wszystkich gniazd, upewnij się, czy włożone w nie karty rozszerzeń nie będą blokować możliwości obsadzania sąsiednich gniazd, blokować dostępu do układów pamięci czy też zawadzać o inne elementy na płycie głównej lub w obudowie. Nowsze systemy powinny również posiadać jedno, przeznaczone dla wysokowydajnych kart graficznych, gniazdo AGP (Accelerated Graphics Port). • BIOS. Płyta główna powinna wykorzystywać jeden ze standardowych BIOS-ów firm takich jak Award, AMI czy też Phoenix. BIOS powinien być umieszczony w układach Flash ROM lub EEPROM (Electrically Erasable Programmable Read Only Memory), co w przyszłości umożliwi jego łatwą aktualizację. Sprawdź również, czy płyta posiada zworkę lub inne ustawienie przełączające system w tryb odzyskiwania BIOS-u, a w niektórych systemach, czy istnieje możliwość zablokowania zapisu pamięci Flash. BIOS powinien obsługiwać specyfikację Plug-and-Play (PnP) oraz twarde dyski EIDE lub Fast ATA. Powinien również umożliwić uruchomienie komputera z nowszych (120 MB) stacji dysków LS120 oraz CD-ROM-ów. BIOS powinien mieć również wbudowane mechanizmy zaawansowanego zarządzania energią APM (Advanced Power Management).
* Obudowa. By uzyskać największą wygodę, najwyższą wydajność, niezawodność oraz prostotę korzystania, powinieneś zaopatrzyć się w obudowę ATX. Obudowy ATX w porównaniu do wcześniejszych obudów Baby-AT mają wiele przewag w wydajności i funkcjonalności, są również wyraźnie lepsze od wszystkich rozwiązań firmowych, takich jak na przykład LPX. Dodatkowo, nowe obudowy NLX mogą być zastosowane w niskowydajnych lub tanich komputerach domowych i firmowych. * Interfejsy na ptycie głównej. Idealna płyta główna powinna posiadać jak najwięcej wbudowanych interfejsów i kontrolerów (nie dotyczy to kart graficznych). Płyta taka powinna być wyposażona w kontroler stacji dyskietek 2,88 MB, powinna również umożliwiać dołączenie urządzeń Enhanced IDE (zwanych też fast ATA) poprzez port połączony z magistralą PCI lub VL-BUS, posiadać dwa wbudowane szybkie porty szeregowe (wykorzystujące układy UART 16550A buforujące dane), dwa szybkie porty USB (Universal Serial Bus), szybki port równoległy typu EPP/ECP oraz interfejs myszy PS/2, chociaż mysz można też dołączyć przez port szeregowy. Porty USB w najbliższej przyszłości staną się niezbędnym elementem każdego systemu multimedialnego. Dodatkową zaletą będzie wbudowany interfejs SCSI, pod warunkiem że będzie to interfejs zgodny ze standardem ASPI (Advanced SCSI Programming Interface). Dopuszczalne są także zintegrowane kontrolery sieciowe, aczkolwiek karty sieciowe ISA dołączane zewnętrznie są lepiej oprogramowane (sterowniki), no i oczywiście zawsze można wymienić taką kartę na nowszy model. Zintegrowane z płytą karty graficzne mogą w niektórych sytuacjach być dodatkowym plusem, jednak obecnie na rynku jest bogaty wybór kart graficznych opartych o różne układy scalone (chipset). To samo dotyczy kart dźwiękowych, które najczęściej są kompatybilne z kartą Sound Blaster, lecz brak im innych udogodnień występujących w kartach dołączanych zewnętrznie, jak np. próbek dźwięku przechowywanych w pamięci ROM (ang. wavetable). Opisane tu dodatkowe elementy można najczęściej wyłączyć, jednak czasem może to być kłopotliwe. * Plug and Play (PnP) Płyta główna powinna być w pełni kompatybilna ze specyfikacją PnP firmy Intel. Pozwoli to na automatyczną konfigurację kart PCI oraz kart ISA PnP.
Płyta główna może być zgodna ze specyfikacją PnP, nawet jeżeli w jej dokumentacji nie ma o tym ani słowa. Płyty PCI powinny być kompatybilne z PnP, ponieważ zgodność ze specyfikacją PnP jest jedną z cech standardu PCI. * Zarządzanie energią. Płyta główna powinna obsługiwać procesory SL Enhanced, komunikujące się z wykorzystaniem protokołów APM (Advanced Power Management Zaawansowane Zarządzanie Energią) i SMM (System Management Modę - Tryb Systemowego Zarządzania Energią). Protokoły te pozwalają różnym elementom systemu komputerowego na przełączenie się na odpowiedni poziom poboru energii i „czuwanie" w oczekiwaniu na zdarzenia. Ostatnio utworzono nowy standard oszczędzania energii. Nazwano go ACPI (Advaced Configuration & Power Interface). Upewnij się, że płyta główna obsługuje ten standard. System zgodny ze specyfikacją Energy Star zużywa mniej niż 30 watów mocy w trybie uśpienia. * Chipsety ptyt głównych. Płyty główne Pentium II powinny być oparte na wydajnym chipsecie obsługującym układy DIMM SDRAM - najlepiej jednym z umożliwiających zastosowanie pamięci z ECC; takimi chipsetami są na przykład Intel 440LX lub 440BX. Chipset 440EX został zaprojektowany z myślą o zastosowaniu wyłącznie w sektorze najtańszych komputerów o najniższej wydajności, w związku z czym płyt z tym chipsetem nie powinno się montować w komputerach spełniających ważne zadania. Zauważ również, że większość chipsetów Intela dla zwykłych procesorów Pentium nie obsługuje pamięci ECC lub z kontrolą parzystości.
Z tego właśnie powodu powinieneś brać raczej pod uwagę Chipsety VIA technologies, ALi (Acer Laboratories, Inc.) lub SiS (Silicon integrated Systems). Firmy te nadal produkują wydajne Chipsety dla zwykłych procesorów Pentium i wiele z nich umożliwia obsługę pamięci SDRAM DIMM z kodem korekcji błędów ECC. » Patrz „Chipsety", str. 344 * Dokumentacja. Płyta główna powinna być zaopatrzona w dobrą dokumentację techniczną. W dokumentacji powinny się znajdować m.in. informacje o wszystkich zworkach i przełącznikach, rozkładzie końcówek we wszystkich gniazdach, układach pamięci RAM, SIMM i innych elementach znajdujących się na płycie. Dobrze jest zaopatrzyć się w osobną dokumentację BIOS-u (u jego producenta) oraz dane ewentualnego niestandardowego kontrolera płyty. Pomocne mogą być również dodatkowe informacje na temat wszystkich pozostałych kontrolerów urządzeń wejścia/wyjścia. Dokumentacja taka jest osiągalna u producenta konkretnego układu. Bardzo pożyteczna jest pomoc techniczna, wraz z aktualną wersją dokumentacji, dostępna w systemie on-line, aczkolwiek dokumentacja elektroniczna nie powinna zastępować tradycyjnego podręcznika. Być może okaże się, że powyższe kryteria są tak rygorystyczne, że nie spełnia ich wiele płyt głównych dostępnych na rynku, w tym także Twoja płyta! Jednak płyta główna spełniająca te wymogi długo jeszcze pozostanie produktem najwyższej jakości, wykorzystującym najnowsze zdobycze technologii PC, z możliwością rozbudowy, wymiany podzespołów na nowsze wersje i z dostępnym serwisem technicznym. Najczęściej polecam zakup płyty pochodzącej od następujących producentów: Intel, Acer, ABIT, AsusTek. Elitegroup, FIC (First International Computer), itp. Płyty te mogą kosztować nieco więcej niż modele producentów mało znanych, jednak kupowanie produktów renomowanych firm jest bezpieczniejsze. Wynika to z faktu, że im więcej dany producent sprzeda egzemplarzy swojej płyty, tym bardziej prawdopodobne jest, że ewentualne problemy zostaną wykryte i poprawione na długo przed zakupem płyty. Ponadto w razie potrzeby skorzystania z usług serwisowych łatwiej jest znaleźć punkt serwisowy znanego producenta.
Dokumentacja Jak już poprzednio wspomniałem, wyczerpująca dokumentacja techniczna jest bardzo istotna i należy to brać pod uwagę dokonując zakupu płyty głównej. Znaczna część producentów wytwarza płyty w oparciu o konkretny układ kontrolera płyty (ang. chipset), skupiający w sobie większość elektroniki płyty głównej. Układy te są oferowane przez wiele firm, np. Intel, Opti, Via, SiS i inne. Zalecam, aby zaopatrzyć się w dokumentację techniczną konkretnego chipsetu bezpośrednio u jego producenta. Jedno z najczęstszych pytań, jakie zadają użytkownicy, dotyczy programu konfiguracyjnego BIOS-u (BIOS setup). Użytkownicy chcą wiedzieć, na co mają wpływ ustawienia sekcji „Advanced Chipset Setup". Zwracają się w tym celu do producentów BIOS-u z prośbą o dokumentację. Jednak najczęściej w dokumentacji BIOS-u nie ma mowy o ustawieniach układu chipset. Informacje te można znaleźć w dokumentacji konkretnego układu kontrolera płyty głównej, dostępnej u producenta układu. Dokumentacja ta była pisana z myślą o inżynierach projektujących płytę, jednak użytkowników mogą zainteresować obszerne informacje dotyczące układu chipset, a zwłaszcza informacje o możliwych ustawieniach sekcji „Advanced Chipset Setup" w programie konfiguracyjnym BIOS-u. Oprócz dokumentacji dotyczącej układu kontrolera płyty głównej, warto również zaopatrzyć się w dokumentację dotyczącą pozostałych ważnych układów znajdujących się na płycie, takich jak kontrolery stacji dyskietek i dysków IDE, układów Super I/O, no i oczywiście procesora. W dostępnej literaturze można znaleźć na ten temat wiele informacji.
Większość firm produkuje dany układ kontrolera płyty przez pewien czas, a następnie zaprzestaje jego produkcji po opracowaniu nowszej wersji. Dokumentacja układu jest dostępna tak długo, jak długo układ jest wytwarzany, więc jeżeli będziemy zwlekać z jej zakupem, to po pewnym czasie może się okazać, że dokumentacja jest już niedostępna. W związku z tym w dokumentację płyty głównej należy się zaopatrzyć natychmiast!
Kompatybilność układów ROM BIOS pochodzących od różnych producentów Jest to dość ważne zagadnienie. Brak kompatybilności może spowodować pojawienie się najróżniejszych problemów z komputerem. Kilka renomowanych firm produkujących komputery kompatybilne z PC opracowało własne rozwiązania ROM BIOS, który funkcjonalnie odpowiada ROM BlOS-owi firmy IBM. Również wielu niezależnych producentów płyt głównych, tzw. OEMs (ang. Original Eąuipment Manufactures) opracowało BlOS-y, które wykorzystują specyficzne cechy ich płyt, a jednocześnie maskują tego efekty przed programami, które „nie lubią" odmiennych rozwiązań sprzętowych.
Niezależni producenci płyt głównych (OEMs) Wielu producentów oryginalnych płyt głównych, tzw. OEMs (Original Eąuipment Manufactures), opracowało własne wersje BIOS-u. Układy ROM BIOS producentów takich jak Compaą czy AT&T są zbliżone do produktów oferowanych przez firmy AMI, Phoenix i inne. Firmy te dostarczają również nowsze wersje swoich produktów (upgrade), oferujące więcej możliwości i pozbawione wykrytych błędów. Gdy ma się do czynienia z układem pamięci ROM pochodzącym od niezależnego producenta, należy się upewnić, że jest to znana firma posiadająca doświadczenie i że dostarcza upgrade BIOS-u po usunięciu z niego wykrytych błędów. Najlepiej, gdy nowsze wersje BIOS-u są udostępniane przez sieć Internet. Kilka firm wyspecjalizowało się w produkcji układów ROM BIOS kompatybilnych z produktami IBM. Najbardziej liczą się tu trzy firmy: American Megatrends, Inc. (AMI), Award Software i Phoenix Software. Firmy te udzielają licencji na swój BIOS producentom płyt głównych, dzięki czemu producenci ci mogą skupić cały wysiłek na sprzętowej stronie płyty głównej. Aby uzyskać ROM BIOS, producent płyty musi udzielić odpowiedzi na wiele pytań dotyczących sprzętu, który produkuje, a na podstawie tej informacji producent BIOS-u opracuje „od podszewki" nowy BIOS albo adaptuje BIOS już istniejący. Dobranie odpowiedniego BIOS-u do płyty głównej komputera nie jest dziełem przypadku. Nie istnieje jednak pojęcie wzorcowego BIOS-u. Firmy AMI, Award, Microid Research i Phoenix dostarczyły producentom płyt różne warianty kodu swojego BIOS-u, z których każdy jest dopasowany do specyficznych cech konkretnego systemu komputerowego, podobnie jak w przypadku systemu operacyjnego DOS. Obszerne informacje o aktualnie dostępnych wersjach BIOS-u można znaleźć pod internetowym adresem http://www.sysopt.com/bios.html
W ostatnich czasach na rynku BIOS-ów nastąpiły wielkie zmiany. Phoenix podpisał kontrakt z Intelem na dostarczanie własnego BIOS-u do wszystkich płyt głównych swego kontrahenta. Intel zaopatruje rynek w ponad 80% płyt głównych. W połowie roku 1998 Phoenix wykupił Awarda, tak więc wszystkie jego nowe produkty są firmowane znakiem Phoenix. Wielka trójka producentów BIOS-ów stała się wielką dwójką. I mimo że duża liczba producentów używa nadal BIOS-ów AMI, to właśnie Phoenix stał się liderem na tym rynku oraz firmą wytyczającą nowe standardy w dziedzinie tworzenia BIOS-ów.
AMI Firma AMI dopasowuje zawartość pamięci ROM do cech konkretnego komputera, nie prowadzi jednak sprzedaży kodu źródłowego BIOS-u producentom płyt głównych. W miarę opracowywania nowszych wersji BIOS-u, firma powinna je dostarczać producentowi płyty głównej. Wielu producentów płyt nie potrzebuje bądź też nie chce kupować kolejnych nowszych wersji, stąd też producenci ci, zanim zakupią licencję na nowszy BIOS, mogą pomijać w swoich płytach zmiany pojawiające się w kolejnych wersjach. Obecnie najbardziej popularną wersją BIOS-u w komputerach PC jest BIOS firmy AMI. Nowsze wersje AMI BIOS-u są określane jako „bardzo elastyczne" (ang. High-Flex), ponieważ ich program konfiguracyjny oferuje dość duże możliwości. BIOS Hi-Flex firmy AMI wchodzi w skład płyt głównych firm Intel, AMI i wielu innych. Charakterystyczne dla AMI jest to, że firma ta jest jedynym producentem BIOS-u wytwarzającym jednocześnie własne płyty główne. W czasie uruchamiania komputera, w lewym dolnym rogu ekranu jest wyświetlany opis identyfikacyjny BIOS-u (ang. BIOS ID string). Są tam podane ważne informacje dotyczące wersji BIOS-u i niektórych ustawień programu konfiguracyjnego.
Istnieje pewien trik, pozwalający na szczegółowe zapoznanie się z ciągiem znaków BIOS ID. Polega on na wyłączeniu komputera, odłączeniu od niego klawiatury i ponownym włączeniu komputera (można też w czasie włączania komputera trzymać naciśnięty odpowiedni klawisz). Spowoduje to wyświetlenie komunikatu o błędzie klawiatury, a BIOS ID będzie ciągle widoczny. W przypadku AMI BIOS ciąg znaków BIOS ID jest wyświetlany każdorazowo po włączeniu komputera, podczas wykonywania testu POST (Power On Self Test). BIOS ID jest widoczny w lewym dolnym rogu ekranu, poniżej komunikatu o prawach autorskich. Kolejne dwa informacyjne ciągi znaków są wyświetlane po naciśnięciu klawisza Insert w czasie wykonywania testu POST. Ciągi te prezentują aktualne ustawienia BIOS-u. Format ciągu znaków BIOS ID String l przedstawiono w tabeli 4.1. Tabela 4.2 przedstawia format ciągu znaków BIOS ID String l dla układów BIOS Hi-Flex firmy AMI. Tabela 4.3 przedstawia format ciągu znaków BIOS ID String 2 dla układów BIOS Hi-Flex firmy AMI. Tabela 4.4 przedstawia format ciągu znaków BIOS ID String 2 dla układów BIOS Hi-Flex firmy AMI.
Tabela 4.1. Format: ABBB-NNNN-numddyy-KK Ciąg znaków Opis A Opcje BIOS-u: D = Bios zawiera procedury diagnostyczne S = Bios zawiera program konfiguracyjny E = Bios zawiera rozszerzony program (ang. Extended Setup) BBB Identyfikator układu chipset lub identyfikator płyty głównej: C&T = chipset Chips & Tecnologies NET = chipset C&T NEAT 286 286 = standardowa płyta 286
SUN = chipset firmy Suntac PAQ = płyta główna firmy Compaq INT = płyta główna firmy Intel AM I = płyta główna firmy AMI G23 = chipset G2 płyty głównej 386 NNNN
Kod oznaczający numer licencji udzielonej przez producenta.
Mmddyy
Data wprowadzenia BIOS-u do sprzedaży w formacie mm/dd/yy
KK
Numer wersji BIOS-u firmy AMI obsługującego klawiaturę.
Wśród wielu funkcji BIOS-u firmy AMI znajduje się m.in. program konfiguracyjny, uruchamiany za pomocą klawisza Delete lub Esc w czasie pierwszych kilku sekund po włączeniu komputera. BIOS poinformuje, który klawisz należy w tym celu nacisnąć i kiedy należy to uczynić. AMI BIOS pozwala użytkownikowi na zdefiniowanie typu twardego dysku, co jest dość ważne w przypadku korzystania z jednego z wielu spotykanych dysków IDE lub ESDI. Nowsze wersje BIOS-u obsługują dyski Enhanced IDE i automatycznie konfigurują ich parametry. Unikatową cechą AMI BIOS-u jest również program diagnostyczny obsługiwany za pomocą menu, który jest odmianą (dość ograniczoną) programu diagnostycznego AMIDIAG. Zawarte w tym programie procedury diagnostyczne nie zastąpią oczywiście dedykowanych programów testujących, lecz mogą czasami być pomocne. Do ograniczeń programu należy m.in. brak pełnego testu pamięci, a procedura niskopoziomowego formatowania dysku odwołuje się do funkcji BIOS-u, a nie do rejestrów urządzenia. Te ograniczenia sprawiają, że nie można za pomocą tego programu sformatować w sposób niskopoziomowy dysku, który jest poważnie uszkodzony.
Tabela 4.2. Format: AB-CCcc-DDDDDD-EFGHUKL-mmddyy-MMMMMMMM-N
Ciąg znaków
Opis
A
Typ procesora 0 = 8086 lub 8088 2 = 286 3 = 386 4 = 486 5 = Pentium 6 = Pentium Pro/II
B
Rozmiar ROM BIOS 0 = BIOS 64 kB 1 =BIOS 128 kB
CCcc
Podstawowy i drugorzędny numer wersji BIOS-u.
DDDDDD
Kod oznaczający numer licencji udzielonej przez producenta. 036xx = płyta główna AM l 386, xx = numer serii 046xx = płyta główna AMI 486, xx = numer serii 056xx = płyta główna AMI Pentium, xx = numer serii 056xx = płyta główna AMI Pentium Pro, xx = numer serii
E
l = Zatrzymanie komputera po wystąpieniu błędu w czasie testu POST.
F
l = Inicjowanie pamięci CMOS po każdym starcie systemu.
G
1= Blokowanie końcówek nr 22 i 23 kontrolera klawiatury.
H
l = Obsługa myszy przez BIOS lub kontroler klawiatury.
I
l = Oczekiwanie na naciśnięcie klawisza
po wystąpieniu błędu w czasie testu POST.
J
l = Wyświetlenie komunikatu o błędzie stacji dysków w czasie testu POST.
K
l = Wyświetlenie komunikatu o błędzie karty graficznej w czasie testu POST.
L
l = Wyświetlenie komunikatu o błędzie klawiatury w czasie testu POST
Mmddyy
Wewnętrzna data BIOS-u w formacie mm/dd/yy (miesiąc/dzień/rok).
MMMMMMMM
Identyfikator układu chipset lub nazwa BIOS-u.
N
Numer wersji kontrolera klawiatury.
Tabela 4.3. Format: AAB-C-DDDD-EE-FF-GGGG-HH-I1JJJ Ciąg znaków
Opis
Opis AA B
Numer końcówki układu kontrolera klawiatury odpowiedzialnej za przełączanie częstotliwości zegara. Znaczenie sygnału na końcówce układu kontrolera klawiatury odpowiedzialnej za przełączanie częstotliwości zegara. H = stan wysoki na tej końcówce przełącza zegar w wyższą częstotliwość. L= stan wysoki na tej końcówce przełącza zegar w niższą częstotliwość.
C
Przetaczanie częstotliwości zegara za pośrednictwem rejestrów układu chipset. 0 = włączone 1 = wyłączone
DDDD
Adres portu, poprzez który przełącza się częstotliwość zegara na wyższą.
EE
Wartość ustawiająca częstotliwość zegara na wyższą.
FF
Wartość maski ustawiająca częstotliwość zegara na wyższą.
GGGG
Adres portu, poprzez który przełącza się częstotliwość zegara na niższą.
HH
Wartość ustawiająca częstotliwość zegara na niższą.
II
Wartość maski ustawiająca częstotliwość zegara na niższą.
JJJ
Numer końcówki wejściowej dla przełącznika częstotliwość Turbo Switch.
Listę dystrybutorów AMI BIOS można znaleźć pod internetowym adresem: http://www.ami.com/distributor.html. Należy pamiętać, że firma AMI nie prowadzi bezpośredniej sprzedaży nowszych wersji swojego BIOS-u.
Award Firma Award jest swego rodzaju wyjątkiem wśród producentów BIOS-u, ponieważ sprzedaje producentom ptyt głównych kod źródłowy BIOS-u i pozwala na jego modyfikację. Oczywiście taki BIOS przestaje wtedy być produktem firmy Award, a staje się BlOS-em dostosowanym do konkretnego sprzętu. Politykę taką prowadzi część firm, m.in. AST, dzięki czemu ma się całkowitą kontrolę nad zawartością BIOS-u, bez konieczności pisania go od nowa. Firmy AMI i Phoenix również dostosowują swój BIOS do konkretnych potrzeb zamawiającego, jednak nie sprzedają jego kodu źródłowego. Często BIOS niektórych producentów, na pierwszy rzut oka wyglądający na rozwiązanie firmowe, jest w rzeczywistości BlOS-em opracowanym na podstawie produktu firmy Award lub innej.
Tabela 4.4. Format: AAB-C-DDDD-EE-FF-GGGG-HH-Il JJJ Ciąg znaków
Opis
AA
Numer końcówki układu kontrolera klawiatury odpowiedzialnej za kontrolę pamięci cache.
B
Znaczenie sygnału na końcówce układu kontrolera klawiatury odpowiedzialnej za kontrolę pamięci cache. H = stan wysoki na tej końcówce włącza pamięć cache. L = stan wysoki na tej końcówce wyłącza pamięć cache.
C
l = wysoki sygnał jest wykorzystywany na końcówce układu kontrolera klawiatury.
DDD
Kontrola pamięci cache za pośrednictwem rejestrów układu chipset. 1 = włączona kontrola pamięci cache. 2 = wyłączona kontrola pamięci cache.
EE
Adres portu włączającego pamięć cache
FF
Wartość włączająca pamięć cache.
GGGG
Wartość maski włączająca pamięć cache.
HH
Adres portu, poprzez który wyłącza się pamięć cache.
II
Wartość wyłączająca pamięć cache.
J
Wartość maski wyłączająca pamięć cache.
K
Numer końcówki odpowiedzialnej za reset kontrolera pamięci 82335.
L
Znacznik modyfikacji BIOS-u. 0 = BIOS nie zmodyfikowany. 1 - 9, A - Z = liczba modyfikacji BIOS-u.
Award BIOS posiada wszystkie funkcje, których należałoby od niego oczekiwać, w tym oczywiście program konfiguracyjny, uruchamiany za pomocą kombinacji klawiszy Ctrl+Alt+Esc. Program ten pozwala użytkownikowi na zdefiniowanie używanych przez niego dysków, co jest potrzebne do pełnego wykorzystania możliwości dysków IDE lub ESDI. Do zalet należy zaliczyć również dobrze napisany program POST. Pomoc techniczną firmy Award można uzyskać pod internetowym adresem http://www.award.com. Podsumowując, BIOS firmy Award jest produktem wysokiej jakości, kompatybilnym prawie w stu procentach ze standardem IBM, przy tym oferuje wysoki poziom obsługi sprzętu.
Phoenix BIOS firmy Phoenix przez wiele lat stanowił standard dla innych producentów. Phoenix był jedną z pierwszych firm, która w sposób legalny, od podstaw opracowała BIOS. Inżynierowie firmy Phoenix badali działanie BIOS-u firmy IBM i określili sposób działania oraz funkcje, jakie powinien spełniać nowy BIOS. Informacje te zostały następnie przekazane drugiej grupie inżynierów, którzy nie mieli nigdy styczności z BlOS-em IBM, mogli więc w sposób legalny napisać od nowa BIOS według specyfikacji dostarczonej przez pierwszą grupę inżynierów. W ten sposób opracowano całkowicie nowy produkt, a nie kopię BIOS-u IBM, który jednak funkcjonalnie odpowiadał pierwowzorowi. W ciągu kolejnych lat firma Phoenix ulepszała swój BIOS, który w porównaniu z produktami innych producentów okazał się najbardziej kompatybilny z BlOS-em IBM. Produkt firmy Phoenix jest moim faworytem wśród układów ROM BIOS z dwóch powodów. Pierwszym powodem jest doskonały program POST. Program ten za pomocą różnych sekwencji dźwięków sygnalizuje nieprawidłowości, które uniemożliwiają dalszą pracę komputera. W ten sposób BIOS potrafi określić układ banku O pamięci RAM, w którym wykrył błąd. Ten doskonały program konfiguracyjny, pozbawiony niepotrzebnych ozdobników, oferuje tylko te funkcje, jakich się od niego oczekuje, np. możliwość definiowania przez użytkownika rodzaju dysku twardego. Program ten jest uruchamiany, w zależności od wersji, za pomocą kombinacji klawiszy Ctrl+Alt+S lub Ctrl+Alt+Esc. Kolejnym powodem, dla którego polecam Phoenix BIOS, jest dokumentacja systemowa. Doskonały jest zarówno podręcznik użytkownika, jak i ogólniejsze książki na temat BIOS-u opublikowane przez firmę Phoenix, które należą już do „klasyki" tego rodzaju literatury. Na zbiór podręczników składają się trzy tytuły: System BIOS for IBM PC/XT/AT Computers and Compatibles, CBIOS for IBM Compnters and Compatibles oraz ABIOS for IBM/PS2 computers and Compatibles. Firma Phoenix jest jedną z nielicznych firm, która przeprowadziła szczegółową analizę BIOS-u PS/2 i jest producentem praktycznie wszystkich układów pamięci ROM w klonach komputerów PS/2 Micro Channel. Wymienione książki są bardzo dobrym źródłem informacji BIOS-u firmy Phoenix, a także dostarczają podstaw ogólnej wiedzy na temat BIOS-u komputerów PC. Gorąco je wszystkim polecam, także tym osobom, które nie miały nigdy styczności z BlOS-em firmy Phoenix. Płyty główne firmy Micronics, które od początku były wyposażone w Phoenix BIOS, można spotkać w wielu markowych komputerach. Ponadto firma Phoenix stała się jednym z największych producentów OEM systemu MS-DOS firmy Microsoft. Jeżeli w Twoim komputerze jest zainstalowany system MS-DOS, to na pewno jest to wersja systemu produkowana przez firmę Phoenix. Firma Phoenix udziela licencji na MS-DOS wszystkim producentom, którzy wykorzystują w swoich komputerach Phoenix BIOS. Z powodu tak bliskich związków z firmą Microsoft, Phoenix ma dostęp do kodu źródłowego DOS-u, co ułatwia dopasowanie BIOS-u i DOS-u oraz eliminuje problemy z kompatybilnością. Firma Phoenix nie prowadzi serwisu technicznego, jednak prowadzi go jej największy dystrybutor (w USA), firma Micro Firmware Inc. Informacja techniczna online jest dostępna pod adresem http://www.firmware.com Firma ta oferuje upgrade BIOS-u wielu komputerów wykorzystujących Phoenix BIOS, produkowanych przez firmy takie jak Packard Bell, Gateway 2000 (z płytą główną Micronics), Micron Technologies i inne.
Pomijając przypadki, w których BIOS jest wersją dostosowaną do specyficznych cech sprzętu, pochodzącą od jednego z niezależnych producentów, np. firmy Compaq, użytkownicy zechcą być może zainstalować BIOS firmy AMI, Award lub Phoenix. Produkty tych firm są powszechnie uznawane jako standardy BIOS-u, a ich częste modyfikacje i ulepszenia sprawiają, że komputer w nie wyposażony ma przed sobą względnie długą przyszłość pod względem rozbudowy systemu (upgrade) i dostępnego serwisu. Dobrym miejscem w Internecie, w którym można znaleźć informację na temat podstaw BIOS-u, jest strona http://www.lemig.umontreal.ca/bios/bios_sg.htm
Synchronizacja częstotliwości podzespołów komputera Niektórzy producenci komputerów wykorzystują elementy niskiej jakości w celu obniżenia ceny końcowego produktu. Jednym z najdroższych elementów na płycie głównej jest procesor, jednak często płyty główne są sprzedawane producentom komputerów bez procesora, dlatego pojawia się pokusa umieszczenia w komputerze procesora przystosowanego do pracy z niższą niż podawana częstotliwością zegara. Np. sprzedawca może twierdzić, że w komputerze znajduje się procesor pracujący z częstotliwością 266 MHz, jednak po zajrzeniu do wnętrza obudowy okazuje się, że procesor jest przystosowany do częstotliwości 233 MHz. Na pozór komputer działa prawidłowo, nie wiadomo tylko jak długo. Jeżeliby producent procesorów po przetestowaniu procesora stwierdził, że pracuje on niezawodnie z wyższą częstotliwością, to inaczej by go oznaczył. Producent mógłby po prostu sprzedać ten sam procesor za większe pieniądze, gdyby się okazało, że pracuje poprawnie przy wyższej częstotliwości zegara. Procesor taktowany zegarem o częstotliwości wyższej niż ta, do której jest przystosowany, wydziela więcej ciepła. Przegrzewanie się procesora może objawiać się losowym zawieszaniem się komputera w dowolnych momentach i frustracją użytkownika. Zdecydowanie odradzam kupowanie komputerów, w których częstotliwość pracy podzespołów przekracza dopuszczalną przez producenta wartość. Sprzedawcy są bardzo podatni na taką pokusę, ponieważ szybsze procesory można drożej sprzedać, a firma Intel i inni producenci procesorów prowadzą tu bardzo konserwatywną politykę. Kilka razy zdarzyło mi się zwiększyć częstotliwość procesora 486 25 MHz do 33 MHz, po czym procesor dalej pracował prawidłowo. Kilka komputerów Pentium 166, a nawet 133 pracowało poprawnie z częstotliwością taktowania 200 MHz. Mógłbym kupić procesor Pentium 90 i ustawić go na częstotliwość 100 MHz, a w razie pojawienia się problemów z powrotem go przestawić na 90 MHz, jednak kupując komputer pracujący z częstotliwością 100 Mhz, oczekuję, że jego podzespoły są rzeczywiście przystosowane do pracy z częstotliwością 100 MHz, a nie niższą. Obecnie spotyka się wiele procesorów wyposażonych w wentylatory, które zapobiegają ich przegrzewaniu, lecz które jednocześnie mogą zakryć „podkręcony" procesor. Jeżeli cena zestawu jest podejrzanie niska, najlepiej spytać sprzedawcę, czy podzespoły komputera są rzeczywiście przystosowane do pracy z podawaną częstotliwością. Na szczęście, od chwili wyprodukowania pierwszych procesorów Pentium, Intel oznacza swoje produkty również od spodu. W niektórych modelach procesorów Intel montował blokadę przeciw podkręcaniu prędkości procesora. System będzie pracował poprawnie z prędkościami mniejszymi od znamionowych, ale nie z większymi. Było to posunięcie skierowane przeciw nieuczciwym dystrybutorom, lecz dotknie także tych, którzy we własnym zakresie chcieli przyśpieszyć pracę komputera. Procesory firm AMD i Cyrix mogą nie mieć żadnych oznaczeń od spodu. Na uwagę zasługuje fakt, że nadruki na tych procesorach - w szczególności AMD - są bardzo łatwe do starcia.
Ponieważ wiele procesorów AMD pracuje poprawnie z większymi szybkościami od nominalnych, pojawiły się także modele z przedrukowanymi oznaczeniami. Tak więc, jeżeli kupujesz taki procesor, sprawdź, czy oznaczenia na nim są wykonane fabrycznie i czy płacisz za to, za co chcesz zapłacić. Aby ustalić rzeczywistą prędkość procesora, należy przyjrzeć się opisowi, który się na nim znajduje. Najczęściej numer na procesorze jest w formacie -xxx, gdzie xxx jest maksymalną częstotliwością. Np. -100 oznacza, że procesor powinien pracować z częstotliwością 100 MHz.
Należy z rezerwą podchodzić do rezultatów pracy programów ustalających częstotliwość pracy procesora. Programy takie mogą jedynie określić częstotliwość, z jaką procesor aktualnie pracuje, a nie jego rzeczywistą częstotliwość. Nie warto również zwracać uwagi na wskaźnik częstotliwości umieszczony na obudowie komputera. Wyświetlacz ten można za pomocą zworek tak skonfigurować, że będzie pokazywał dowolną wartość, która nie ma żadnego związku z rzeczywistą szybkością komputera.
Format płyty głównej Płyty główne mogą być wykonane w kilku różnych formatach. Format płyty głównej oznacza wymiary i rozmiar płyty, a także decyduje o rodzaju obudowy, do jakiej pasuje płyta. Spotyka się następujące formaty płyt głównych: * Systemy oparte na wymiennych kartach (backplane), * (ang. Fuli size AT)
Płyta AT „pełnowymiarowa"
* Baby-AT * Płyty niestandardowe (proprietary design) * LPX * ATX * NLX
Płyty główne w formacie Backplane Nie wszystkie komputery posiadają płytę główną w ścisłym tego słowa znaczeniu. W niektórych komputerach elementy, które zazwyczaj znajdują się na pycie głównej, są montowane na osobnych kartach, wkładanych do gniazd (slotów). Płytę z gniazdami na karty określa się jako backplane, a komputery zbudowane w oparciu o taką płytę są po angielsku określane jako backplane systems. Płyty te występują w dwóch odmianach: aktywnej i pasywnej. Architektura pasywna oznacza, że płyta pozbawiona jest elektronicznych elementów aktywnych, za wyjątkiem buforów magistrali systemowej. Wszystkie elementy, które zwykle znajdują się na płycie głównej, są umieszczone na osobnych kartach wkładanych w gniazda. Niekiedy wszystkie funkcje płyty głównej spełnia pojedyncza karta, która jest właściwie kompletną płytą główną. Koncepcja płyty pasywnej pozwala na łatwą rozbudowę systemu poprzez zamianę jednej lub kilku kart. Jednak tego rodzaju rozwiązanie rzadko spotyka się w komputerach PC z powodu wysokiej ceny karty pełniącej funkcję płyty głównej. Rozwiązanie to cieszy się natomiast popularnością w dużych komputerach stacjonarnych stosowanych w przemyśle. Spotyka się je także czasami w serwach plików wysokiej klasy (ang. high-end file servers). Tzw. aktywna architektura płyty Backplane oznacza płytę, na której znajduje się kontroler
magistrali wraz z innymi układami. Większość tego typu płyt zawiera te same elementy, które spotkać można na normalnej płycie głównej, za wyjątkiem bloku procesora. Blok procesora (ang. processor complex) oznacza tę część płyty głównej, która zawiera procesor wraz z układami towarzyszącymi, takimi jak generator sygnału zegarowego czy pamięć cache. Koncepcja, w której blok procesora znajduje się na osobnej karcie, pozwala użytkownikowi na łatwą zamianę procesora poprzez wymianę karty. Płyta posiada możliwość wymiany bloku procesora. Wyodrębniony blok procesora znajduje się w większości aktywnych płyt Backplane PC. Np. firmy Compaą oraz IBM zastosowały ten rodzaj płyt w swoich serwerach wysokiej klasy. W porównaniu z odmianą pasywną, rozwiązanie aktywne umożliwia prostszą i tańszą rozbudowę komputera, ponieważ blok procesora kosztuje zazwyczaj mniej niż kompletna karta płyty głównej. Niestety, brakuje standardów definiujących interfejs pomiędzy kartą procesora a resztą systemu, stąd też producenci zastrzegają zazwyczaj swoje rozwiązania firmowe. Ograniczona podaż płyt powoduje, że ich ceny przewyższają ceny większości dostępnych płyt głównych. Zarówno tradycyjna płyta główna, jak i płyta typu backplane mają zalety i wady. Większość spośród pierwszych komputerów osobistych wczesnych lat 70-tych została opracowana w oparciu o płytę typu backplane. Tradycyjna płyta główna została rozpowszechniona przez firmy Apple i IBM, ponieważ z powodu niższej ceny bardziej nadawała się do masowej produkcji. Teoretyczną zaletą płyty backplane jest możliwość zamiany procesora, a co za tym idzie, poprawy wydajności komputera, poprzez wymianę pojedynczej karty. W komputerach z płytą główną trzeba w tym celu zazwyczaj wymieniać całą płytę, co może się wydawać karkołomnym zadaniem. Niestety, w praktyce okazuje się, że rozbudowa komputera opartego o płytę backplane jest znacznie droższa niż w przypadku komputera z tradycyjnie pojmowaną płytą główną, ponadto zamontowana na stałe magistrala uniemożliwia korzystanie z niektórych bardziej zaawansowanych kart, dołączanych do magistrali lokalnej komputera. Kolejnym gwoździem do trumny formatu Backplane było pojawienie się możliwości wymiany samego tylko procesora na płycie głównej. Zwiększenie szybkości poprzez wymianę procesora, na przykład na typ ,,overdrive", osiąga się bez wymiany płyty głównej. Jest to najprostszy i najtańszy sposób poprawy parametrów komputera. Dni formatu Backplane są już policzone, głównie dlatego, że karty z procesorem czy też karty płyty głównej są droższe od kompletnych płyt głównych wykonanych w standardowym formacie. Niedawno firma Intel zaprezentowała płytę główną dla procesora Pentium II, wykonaną w nowym formacie NLX, która posiada pewne cechy formatu backplane. Producenci komputerów wykazali zainteresowanie nowym formatem, tak więc już niedługo mogą pojawić się w sprzedaży, i to po umiarkowanej cenie, komputery wykorzystujące to rozwiązanie. „Pełnowymiarowa Płyta AT" (ang. Full-Size AT) Nazwa „pełnowymiarowa płyta AT" wzięła się stąd, że format płyty odpowiada oryginalnej płycie głównej komputera AT. Płyta ta charakteryzuje się bardzo dużymi rozmiarami, ma 12 cali szerokości i 13,8 cali długości. IBM potrzebował więcej miejsca na dodatkowe obwody, kiedy przechodził z ośmiobitowej architektury XT na szesnastobitową AT. Tak więc płyta wygląda jak ta z oryginalnego XT, z tym że rozciągnięta wszerz i wzdłuż. Płyta ta została przerobiona w rok po pojawieniu się jej na rynku. Potem została zmodyfikowana raz jeszcze, aż rozmiarami dorównała płycie XT. IBM nazwał ją XT-286. Rozwiązanie to zostało zaadaptowane przez wielu producentów i zostało nazwane ostatecznie Baby-AT. Gniazdo klawiatury i gniazda na karty rozszerzeń na płycie muszą być odpowiednio rozmieszczone, tak aby pasowały do otworów w obudowie komputera. Płytę tę można umieścić tylko w obudowie Fuli Size AT lub Tower (wieża). Większość producentów nie wytwarza już tak dużych płyt, gdyż nie mieszczą się one w
obudowie Baby-AT ani Mini-Tower, a także z powodu znacznego postępu w miniaturyzacji elementów elektronicznych. Płytą Baby AT można zawsze zastąpić inną, pełnowymiarowa AT. Natomiast odwrotna zamiana jest często niemożliwa.
Baby-AT Format płyty Baby-AT jest zasadniczo taki sam jak format oryginalnej płyty komputera IBM XT, różni się od niej jedynie rozkładem otworów na śruby, które są dopasowane do obudowy AT (zob. rysunek 4.1). Inne jest również rozmieszczenie gniazda klawiatury i gniazd kart rozszerzających (slotów), które są dopasowane do otworów w obudowie. Charakterystyczne jest wyposażenie praktycznie wszystkich płyt głównych Full-Size AT i Baby-AT w pięciokońcówkowe gniazdko typu DIN służące do podłączenia klawiatury. Płyty Baby-AT pasują do każdego rodzaju obudowy, za wyjątkiem obudowy typu Low profile, oraz Slim Linę. Z powodu możliwości elastycznej zmiany konfiguracji płyty Baby-AT stanowią obecnie najpopularniejszy format płyt głównych. Na rysunku 4.1 przedstawiono kształt i rozmiary płyty głównej Baby-AT. Rysunek 4.1. Format płyty głównej Baby-A T
Najprostszą metodą identyfikacji systemu Baby AT bez otwierania obudowy jest przyjrzenie się tylnej części takiego komputera. W komputerze Baby AT karty rozszerzeń są umieszczone bezpośrednio na płycie głównej, prostopadle do jej powierzchni. Jedynym gniazdem bezpośrednio zamontowanym na płycie głównej jest gniazdo klawiatury -5-bolcowe D1N (czasem można spotkać płyty Baby AT z 6-bolcowym mini-DIN, zwanym również gniazdem PS/2, zamiast tego większego). Wszystkie inne złącza są umieszczone na kartach rozszerzeń.
LPX Innym popularnym formatem płyt głównych jest format LPX oraz Mini-LPX. Format ten został opracowany przez firmę Western Digital i był stosowany w niektórych płytach głównych tej firmy. Firma Western Digital zaprzestała już produkcji płyt głównych PC, jednak format LPX zaczął żyć własnym życiem i jest wykorzystywany przez wielu producentów. Płyty główne LPX są obecnie powszechnie stosowane w komputerach montowanych w popularnych obudowach typu Low Profile i Slimline . Komputery wyposażone w płyty LPX są zazwyczaj dość tanie, ich cena jest zbliżona do cen komputerów sprzedawanych w supermarketach ze sprzętem elektronicznym. Trzeba pamiętać, że komputery wykorzystujące płyty LPX mogą się różnić od siebie pod wieloma względami, przez co mogą się pojawiać problemy z brakiem kompatybilności między nimi, podobnie jak to się zdarza w przypadku niektórych markowych komputerów. Płyty LPX wyróżniają się kilkoma unikatowymi rozwiązaniami. Najbardziej charakterystyczne jest w nich to, że gniazda na karty rozszerzeń (expansion slots) znajdują się na dodatkowej karcie magistrali (ang. bus riser card), którą wkłada się w płytę główną. Karta ta jest ustawiona prostopadle do karty rozszerzającej. Takie ułożenie kart pozwala na zastosowanie obudowy typu low profile. Gniazda rozszerzeń są rozlokowane po obu stronach karty magistrali, w zależności od rodzaju komputera i obudowy. Inną cechą wyróżniającą format LPX jest rząd gniazd umieszczonych standardowo z tyłu płyty. Wśród nich znajdują się gniazda: monitora VGA (15-końcówkowe), portu równoległego (25-końcówkowe), dwóch portów szeregowych (oba 9-końcówkowe) oraz gniazdko mini-DIN służące do podłączenia klawiatury i myszy PS/2. Gniazdka te są montowane poprzecznie z tyłu płyty, w ten sposób, że wystają przez otwory w obudowie. Na niektórych płytach LPX mogą znajdować się gniazda na dodatkowe karty, m.in. na karty sieciowe czy adaptery SCSI. Na rysunku 4.2 przedstawiono standardowe płyty LPX i Mini-LPX, spotykane obecnie w wielu komputerach. Rysunek 4.2. Format płyty głównej i Mini-LPX Gniazdo na kartę rozszerzającą magistralę
Rozpoznanie systemu opartego na płycie LPX jest bardzo proste. Mianowicie zastosowanie karty rozszerzającej magistralę spowodowało, że karty są ułożone równolegle do płyty głównej. Nie jest to jednak cecha wystarczająca do upewnienia się. Podobne rozwiązanie spotyka się w komputerach NLX. Jednak gniazdo w płycie LPX znajduje się pośrodku płyty, a w komputerze NLX - z boku (w zasadzie w komputerze NLX to płytę główną podłącza się do karty, a nie na odwrót). Prócz tego płyty LPX mają także komplet gniazd ułożonych w jednej linii, a płyty NLX mają część gniazd ułożonych w jednym rzędzie, a część w dwóch rzędach.
ATX Ostatnim etapem ewolucji płyt głównych jest format ATX, który łączy w sobie najlepsze cechy Baby-AT i LPX, a oprócz tego posiada szereg dodatkowych usprawnień. Format ATX przypomina płytę Baby-AT umieszczoną prostopadle w obudowie, różni się jednak od niej sposobem umieszczenia zasilacza i wyprowadzenia napięcia zasilania. Płyta ATX jest niekompatybilna. Najważniejszą informacją dla początkujących użytkowników płyty ATX jest brak fizycznej kompatybilności płyty z formatami LPX i Baby-AT. Płyta LPX musi być zamontowana w specjalnej obudowie, wymaga także innego typu zasilacza. Nowe obudowy i zasilacze są obecnie powszechnie stosowane w wielu nowych komputerach. Oficjalnie format ATX został ogłoszony w czerwcu 1995 r. jako tzw. specyfikacja otwarta. Najnowsza wersja 2.01 specyfikacji ATX została opublikowana w styczniu 1997 roku. Płyta ATX została szczegółowo udokumentowana przez firmę Intel, tak więc producenci komputerów mogą ją wykorzystywać w swoich produktach. Dzisiaj płyty ATX są najpopularniejsze na rynku i to właśnie je polecałbym wahającym się nabywcom. Płyta ATX przewyższa płyty Baby-AT i LPX pod wieloma względami: 4 Gniazdka na płycie umieszczone w dwóch rzędach. W tylnej części płyty znajduje się panel z gniazdkami interfejsów o szerokości 6,25 cala i wysokości 1,75. Dzięki temu możliwe jest umieszczenie gniazdek w taki sam sposób, w jaki są wyprowadzane na zewnątrz obudowy, bezpośrednio na płycie. Nie trzeba już łączyć kablem portów na płycie głównej z gniazdkami z tyłu obudowy, tak jak jest to rozwiązane w formacie Baby-AT. * Pojedyncze wyprowadzenie napięcia zasilania z przełącznikiem. Istne dobrodziejstwo dla tych wszystkich użytkowników, którzy zawsze obawiali się zniszczenia płyty po niewłaściwym dołączeniu wtyczek doprowadzających zasilanie na płycie Baby-AT. Na płycie ATX znajduje się jedno zaizolowane wyprowadzenie napięcia zasilania z własnym przełącznikiem. Tak więc zasilania nie da się podłączyć nieprawidłowo. Wtyczka zasilania posiada także końcówki dostarczającego płycie głównej napięcia 3,3 V, dzięki czemu nie trzeba stosować skomplikowanych regulatorów napięcia, które są podatne na uszkodzenia. * Zmienione rozmieszczenie układów procesora i pamięci. Moduły procesora i pamięci są tak rozmieszczone, że nie kolidują z żadną z kart rozszerzających i są łatwo dostępne, można więc z łatwością rozbudowywać komputer bez konieczności wyciągania kart rozszerzających, które już tkwią w gniazdach. Procesor i moduły pamięci są umieszczone obok zasilacza, który jest wyposażony w wentylator wdmuchujący powietrze w ich kierunku, co eliminuje konieczność stosowania niewydajnego i podatnego na awarie wentylatora na procesorze. Nad procesorem jest także miejsce na duży radiator. Pomimo tych usprawnień wielu producentów umieszcza w komputerach wentylatory procesora. Firma Intel produkuje między innymi procesory z na stałe zamontowanym, dobrej jakości wentylatorem. Komplet taki nazwano ,,box" i jest sprzedawany w pojedynczych opakowaniach, zamiast partii 100 lub więcej procesorów sprzedawanych większym producentom. Intel załącza wentylator jako gwarancję dobrego chłodzenia. Mniejsi
producenci nie zawsze są w stanie przetestować składane przez siebie systemy. Montując procesor z wiatrakiem mogą być pewniejsi, że ich komputer będzie niezawodny. * Odmienne rozmieszczenie interfejsów na pfycie. Gniazdka stacji dysków i dysku twardego są umieszczone obok napędów, lecz nie kolidują ani z napędami dysków, ani z kartami rozszerzającymi. Oznacza to, że kable łączące napędy dysków z płytą mogą być teraz o wiele krótsze, a dostęp do gniazdek stacji dysków czy IDE jest możliwy bez wyjmowania z obudowy karty czy napędu. * Ulepszony system chłodzenia. Procesor i pamięć główna są chłodzone bezpośrednio przez wentylator zasilacza, co eliminuje konieczność stosowania dodatkowego wentylatora w obudowie czy na procesorze. Ponadto wentylator wdmuchuje powietrze do wnętrza obudowy i w ten sposób zapobiega dostawaniu się kurzu do wnętrza komputera. Możliwe jest również zamontowanie filtra powietrza na otwór wentylacyjny lub na zasilacz, przez co komputer staje się jeszcze bardziej odporny na kurz i brud z zewnątrz. * Obniżenie kosztów produkcji. W komputerze z płytą ATX nie ma plątaniny kabli, która jest w komputerze Baby-AT, nie ma dodatkowych wentylatorów (najczęściej), nie ma regulatora napięcia -jest jedno wyprowadzenie napięcia zasilania, a kable wewnątrz obudowy są krótkie. Wszystkie te czynniki powodują obniżenie ceny nie tylko samej płyty głównej, ale i całego komputera. Rysunek 4.3 przedstawia format płyty ATX. Można zauważyć, że elementy stałe zamontowane w obudowie nie przysłaniają płyty głównej oraz że moduły pamięci, procesor i gniazdka napędów dyskowych są łatwo dostępne i nie kolidują z kartami rozszerzającymi. Widać również, że wentylator umieszczony w pobliżu zasilacza wdmuchuje powietrze do wnętrza obudowy, chłodząc urządzenia generujące ciepło, takie jak procesor czy moduły pamięci. Płyta ATX jest właściwie płytą główną Baby-AT obróconą o 90 stopni. Gniazda rozszerzeń są usytuowane równolegle do krótszej krawędzi płyty i nie kolidują z procesorem, pamięcią ani gniazdami interfejsów. Oprócz „pełnowymiarowej" płyty ATX, firma Intel opracowała także płytę mini-ATX, która pasuje do tej samej obudowy co ATX. Rozmieszczenie otworów w obudowach ATX i Baby-AT jest podobne, jednak obudowy te nie są ze sobą kompatybilne fizycznie. Zastosowanie zasilacza z Baby-AT wymagałoby użycia odpowiedniej przejściówki, natomiast standardowy zasilacz ATX jest podobny do zasilacza typu Slimline. Rysunek 4.4 przedstawia formaty płyt ATX i mini-ATX. Oczywiście, zalety formatu ATX sprawiły, że płyta ta szczególnie dobrze nadaje się do komputerów wysokiej klasy (ang. high-end). Kompletne informacje na temat specyfikacji ATX można uzyskać pod internetowym adresem: http://www.teleport.com/~atx
Rozpoznajemy płytę ATX jak zwykle przyglądając się komputerowi od tyłu. Są dwie cechy pozwalające jednoznacznie odróżnić ją od innych. Mianowicie karty rozszerzeń wtykane są bezpośrednio w płytę - czyli są na niej umieszczone pod kątem 90 stopni, a porty na płycie są wbudowane w dwóch rzędach.
NLX Format NLX jest najnowszym osiągnięciem w zakresie technologii wytwarzania płyt głównych i być może wkrótce warto będzie brać go pod uwagę przy zakupie płyty. NLX jest formatem typu low-profile, przypominającym format LPX, lecz w stosunku do niego rozszerzonym o możliwość integracji z najnowszymi rodzajami urządzeń zewnętrznych i kart rozszerzających. Zniesione zostało podstawowe ograniczenie formatu LPX, jakim było niedopasowanie płyty do nowszych modeli procesorów. Format NLX został także dokładnie ustandaryzowany, dzięki czemu, w przeciwieństwie do słabo unormowanego LPX-a, zapewniono wymienialność płyt głównych. Ulepszono również chłodzenie procesora.
Zalety charakterystyczne dla formatu NLX obejmują m.in.: * Obsługę najnowszych procesorów. Jest to szczególnie ważne w przypadku komputerów wyposażonych w Pentium II, ponieważ rozmiar modułu procesora (ang. Single Edge Contact Cartdridge) utrudnia stosowanie płyt Baby-AT i LPX. * Elastyczność konfiguracji, wymuszona pojawianiem się coraz nowszych generacji procesorów. Montaż płyty w obudowie jest możliwy bez konieczności rozbierania całego komputera na części, tak jak to było w przypadku płyt typu backplane. Jednak format NLX nie cieszy się wielką popularnością wśród producentów komputerów, brak go w ofercie m.in. firm AST, Digital, Gateway, Hewlett-Packard, IBM, Micron, NEC i innych. * Obsluga „przyszlościowych" rozwiązań technicznych. Płyta obsługuje interfejs graficzny AGP (Accelerated Graphics Port), port multimedialny USB (Universal Serial Bus), wysokie moduły pamięci i moduły DIMM. Wzrost liczby aplikacji multimedialnych wymusił dodanie interfejsów urządzeń odtwarzania video, zaawansowanej grafiki i audio. Pozwala to uniknąć kosztów związanych z zakupem dodatkowych kart, które w przyszłości będą niezbędne do uruchomienia wielu zaawansowanych aplikacji multimedialnych. Rysunek 4.5 przedstawia format płyty NLX. Należy zwrócić uwagę, że podobnie jak w przypadku płyty ATX, elementy montowane na stałe do obudowy nie przysłaniają płyty głównej. Ponadto płytę główną i karty rozszerzające (usytuowane, podobnie jak w formacie LPX, równolegle do płyty głównej) można łatwo wkładać i wyjmować bez konieczności wyciągania karty rozszerzenia magistrali (riser card) i pozostałych kart. Łatwiejszy jest również dostęp do procesora, usprawniono także jego chłodzenie, które jest bardziej wydajne niż w przypadku płyt głównych, na których podzespoły są ciaśniej rozmieszczone. Jak widać, format NLX został opracowany tak, aby zapewnić maksymalną elastyczność konfiguracji i efektywne wykorzystanie przestrzeni wewnątrz obudowy. W obudowie z powodzeniem zmieszczą się nawet dość długie karty rozszerzające, które nie będą kolidować z pozostałymi podzespołami komputera. Problem ten występował w komputerach z płytą Baby-AT. Rysunek 4.5. Rozmieszczenie podzespołów w komputerze Z płytą NLX
Dokładniejsze informacje oraz opis specyfikacji NLX można znaleźć pod internetowym adresem: http://www.teleport.com/~nlx Na stronie tej znajduje się dokument będący oficjalną specyfikacją płyty głównej NLX.
Rozwiązania firmowe Rozwiązania zastosowane w budowie płyt głównych, nie zaprojektowanych w oparciu o jeden z powszechnie wykorzystywanych standardów, jak AT, Baby-AT, ATX lub NLX, są uważane za prawnie zastrzeżone (firmowe). Większość ludzi kupujących pecety powinna unikać firmowych rozwiązań, ponieważ w przyszłości mogą one znacznie utrudnić lub nawet uniemożliwić wymianę lub kupno lepszego zasilacza, obudowy czy też płyty głównej. Takie ograniczenia bardzo zawężają możliwości wykorzystania komputera w przyszłości. Dla mnie komputery, w których zastosowano rozwiązania firmowe, są komputerami jednorazowego użytku, ponieważ nie można ani ich uaktualnić, ani w prosty sposób naprawić. Problemem są tu firmowe części, które można zakupić tylko od oryginalnego producenta systemu i które często kosztują wielokrotnie więcej od ich niefirmowych odpowiedników. Oznacza to, że po wygaśnięciu gwarancji naprawa firmowego komputera przestaje być opłacalna. Jeśli zepsuje się płyta główna, bardziej opłacalne będzie kupno nowego, standardowego komputera niż nowej, pięć razy droższej od standardowych, firmowej płyty głównej, W dodatku nowa standardowa płyta główna najprawdopodobniej będzie szybsza od tej, którą wymieniasz. W przypadku komputera firmowego, otrzymasz płytę główną taką samą jak ta, która zawiodła. Popularny LPX jest najczęściej stosowanym standardem płyt głównych w komputerach firmowych. Komputery te przeznaczone są przede wszystkim do sprzedaży detalicznej. Główni producenci systemów tej klasy to Compaq i Packard Bell; problemy z kompatybilnością dotyczą praktycznie wszystkich produkowanych przez nich komputerów. Wygląda na to, że niektórzy z producentów firmowych systemów dokładają wszelkich starań, by produkowane przez nich komputery były w jak największym stopniu fizycznie niekompatybilne z innymi systemami. Powoduje to, że praktycznie w żaden sposób nie można dokonać naprawy, uaktualnienia czy nawet znaleźć części zamiennych do tych systemów - pomijając oczywiście oryginalnego producenta komputera, oferującego je w cenie o wiele wyższej od ich standardowych odpowiedników. Na przykład, jeśli w moim komputerze, wykonanym zgodnie z rozwiązaniami standardu ATX (a także każdym innym wykorzystującym obudowy i płyty główne Baby-AT) zepsuje się płyta główna, mogę znaleźć dowolną ilość zamiennych płyt głównych - obsługujących potrzebne mi częstotliwości i rodzaje procesorów - i to za bardzo dobre (właściwszym określeniem będzie wspaniałe) ceny. Jeśli posiadasz jeden z nowszych komputerów Compaq, Packard Bell, Hewlett-Packard czy też inny, przy którego budowie zastosowano firmowe rozwiązania, to w razie uszkodzenia płyty głównej będziesz musiał płacić o wiele więcej za dostępną tylko u producenta zamienną płytę główną. W dodatku nie będziesz miał żadnej możliwości (lub tylko niewielką) wyboru płyty głównej, która obsługiwałaby szybsze lub lepsze procesory niż ta, która zawiodła. Innymi słowy, rozbudowa lub naprawa jednego z tych komputerów, podobnie jak to było w przypadku płyty głównej, jest trudna i często nieopłacalna. Komputery sprzedawane przez największe firmy wysyłkowe, jak Dell Gateway, Micron i inne, są dostępne w standardowych wymiarach ATX, umożliwiających łatwą naprawę i uaktualnianie komputera w przyszłości. Jeśli posiadasz komputer zgodny ze standardem ATX, nie musisz kupować płyty głównej, zasilacza ani innych elementów systemu u producenta komputera, lecz możesz wybierać wśród dowolnej liczby innych dostawców.
Złącza na płycie głównej Większość obecnie produkowanych płyt głównych jest wyposażona w liczne złącza. Tabele od 4.5 do 4.14 zawierają opisy sygnałów poszczególnych końcówek najczęściej spotykanych złączy, a rys. 4.6 i 4.7 przedstawiają ich rozmieszczenie na typowej płycie głównej wykonanej w standardzie ATX. Rysunek 4.6. Układ złączy typowej płyty głównej (w tym przypadku Intel SE440BK)
A Wake on Ring (budzenie na sygnał z modemu) B Gniazda PCI (J4D2, J4D1, J4C1, J4B1) C Opcjonalne złącze technologii Wake on LAN (J1C1) D Wentylator 3 (J3F2) E Opcjonalne pomocnicze wejście Line In (J2F2) F Opcjonalne wejście telefoniczne (J2F1) G Opcjonalne wejście CD-ROM Audio (J1F1) H Opcjonalne wejście włamania do obudowy (J3F1) l
Slot 1 procesora (J4J1) J Wentylator 2 (J4M1)
K Wentylator 1 (J8M1) L Złącze stacji dysków (J8K1) M Zasilanie (J7L1) N Opcjonalna dioda LED dysku SCSI (J8J1) O Panel czołowy (J8G2) P Pierwsze i drugie złącze IDE (J7G1, J8G1) Q Gniazda pamięci DIMM (J6J1.J6J2.J7J1)
R Gniazdo karty AGP (J4E1) S PC/PCI (J6D1) T Gniazda ISA (J4B2.J4A1)
Rysunek 4.7. Typowe złącza znajdujące się na płycie głównej ATX
A
PS/2 Keyboard or mouse
- klawiatura lub mysz PS/2 B
PS/2 Keyboard or Mouse
- klawiatura lub mysz PS/2 C
USB Port 1 - USB port 1
D
USB Port O - USB port O
E
Serial Port A - port szeregowy A
F
Parallel Port - port równoległy
G Serial Port B - port szeregowy B H
MIDI/Game Port (optional) - port MIDI/joystick (opcja producenta)
l
Audio Line Out (optional) - wyjście audio - Line Out (opcja producenta)
J
Audio Line In (optional) - wejście audio - Line In (opcja producenta)
K
Audio Mic In (optional) - wejście mikrofonu (opcja producenta)
Tabela 4.5. Rozprowadzanie zasilania na płycie ATX Końcówk Sygnał a
Końcówka
Sygnał
1
+3,3 V
11
+3,3 V
2
+3,3 V
12
-12V
3
Masa
13
Masa
4
+5 V
14
PS-ON (zdalny włącznik /wyłącznik zasilania)
5
Masa
15
Masa
6
+5V
16
Masa
Tabela 4.5. cd. Rozprowadzanie zasilania na płycie ATX
Końcówka
Sygnał
Końcówk Sygnał a
7
Masa
17
Masa
8
PWRGD (Power Good)
18
-5V
9
+5 VSB (Standby)
19
+5V
10
+12 V
20
+5 V
Tabela 4.6. Rozprowadzanie zasilania na płycie Baby — AT Końcówka
Sygnał
Końcówk Sygnał a
1
PWRGD (Power Good)
7
Masa
2
+5V
8
Masa
3
+12 V
9
-5V
4
-12V
10
+5V
5
Masa
11
+5V
6
Masa
12
+5V
Tabela 4.7. Interfejs portu szeregowego na płycie głównej Końcówka
Sygnał
Końcówk Sygnał a
1
DCD
6
CTS
2
DSR
7
DTR
3 SIN)
Wejście szeregowe (Serial IN,
8
RI
4
RTS
9
GND
5
Wyjście szeregowe (Serial OUT, SOUT) 10
Nie podłączone
Tabela 4.8. Interfejs portu równoległego na płycie głównej Końcówka
Sygnał
Końcówk Sygnał a
1
STROBE
2
AUTO FEED-
3
Dane Bit 1
4
ERROR
5
Dane Bit 2
6
INIT-
7
Dane Bit 3
8
SLCT IN-
9
Dane Bit 4
10
Masa
11
Dane Bit 5
12
Masa
13
Dane Bit 6
14
Masa
Tabela 4.8. Interfejs portu równoległego na płycie głównej
Końcówka
Sygnał
Końcówk Sygnał a
15
Dane Bit 7
16
Masa
\1
Dane Bit 8
18
Masa
19
ACJ-
20
Masa
21
BUSY
22
Masa
23
PE (brak papieru)
24
Masa
25
SLCT
26
Nie podłączone
Tabela 4.9. Interfejs portu myszy na płycie głównej Końcówka
Sygnał
Końcówk Sygnał a
\
Masa
5
CLK
2
Dane
6
Przycisk
3
Nie podłączone
7
Przycisk
4
Vcc
8
Nie podłączone
Tabela 4.10 Interfejs portu podczerwieni (ang. Infrared Data, IrDA) na płycie głównej Końcówka
Sygnał
Końcówk Sygnał a
1
+5 V
4
Masa
2
Przycisk
5
IrTX
3
IrRX
6
CONIR (absorpcja podczerwieni, ang. Consumer IR).
Tabela 4.11. Sposób podłączenia baterii Końcówka
Sygnał
Końcówk Sygnał a
I
Masa
3
Przycisk
2
Nie wykorzystane
4
+6V
Tabela 4.12 Sposób podłączenia diody LED i układu blokady klawiatury Końcówka
Sygnał
Końcówk Sygnał a
1
Zasilanie diody LED 4 (+5 V)
Blokada klawiatury
2
Przycisk
Masa
3
Masa
5
Tabela 4.13. Sposób podłączenia głośnika Końcówka
Sygnał
Końcówka
1
Masa
3
2
Przycisk
4
Sygnał Głośnik zamontowany na płycie Głośnik zewnętrzny
Tabela 4.14. Sposób podłączenia wentylatora procesora Końcówka 1
Masa
2
+12 V
3
Obrotomierz
Sygnał
Wyprowadzeń tych nie wolno ze sobą zwierać, gdyż zwarcie 12 V do masy spowoduje poważne uszkodzenie płyty głównej. Zwróć uwagę, że niektóre płyty główne mają wbudowany piezoelektryczny brzęczyk. Można go uaktywnić poprzez zwarcie jumperem wyprowadzeń 3 i 4. Usunięcie jumpera uaktywnia standardowy głośniczek, zamontowany w obudowie. Niektóre inne złącza, na jakie możesz natrafić w nowszych obudowach, zostały opisane w tabelach od 4.15 do 4.20. Tabela 4.15. Wyprowadzenia zlącza ochrony przed włamaniem do wnętrza obudowy Końcówka
Sygnał
1
Gnd
2
CHS_SEC (chassis secunty)
Tabela 4.16. Wyprowadzenia złącza Wake on LAN Końcówk Sygnał a 1
+5 VSB
2
Gnd
3
WOL (Wake on LAN)
Tabela 4.17. Wyprowadzenia złącza CD Audio Końcówk Sygnał a
Końcówka Sygnał
1
CD_IN-Left
3
Gnd
2
Gnd
4
CD_IN_Right
Tabela 4.18. Wyprowadzenia złącza telefonicznego Końcówka
Sygnał
1
Audio Out (mono)
2
Gnd
Końcówka Sygnał 3 4
Gnd Audio In (mono)
Tabela 4.19. Wyprowadzenia złącza ATAPI Line In Końcówka
Sygnał
Końcówka Sygnał
1
Left Line In
3
Gnd
2
Gnd
4
Right Line In
Tabela 4.20. Wyprowadzenia złącza Wake on Ring Końcówka
Sygnał
1
Gnd
2
RINGA
Intel i paru innych producentów płyt głównych lubuje się w umieszczaniu wszystkich złączy przedniego panelu w jednym rzędzie, tak jak pokazano na rysunku 4.8. Tabela 4.21 opisuje przeznaczenie złączy przedniego panelu, powszechnie spotykanych na płytach głównych ATX firmy Intel. Tabela 4.21. Typowe złącze przedniego panelu płyty głównej A TX (opisano złącze na płycie głównej firmy Intel) Złącze
Końcówka
Sygnał
Głośnik
27
SPKR_HDR
26
PIEZOJN
25
Klucz
24
Gnd
23
SW RST
Reset Rysunek 4.8.
Wyprowadzenia złączy przedniego panelu typowej płyty głównej A TX (na rysunku pokazano wyprowadzenia na płycie Intela)
Tabela 4.21. cd. Typowe złącze przedniego panelu płyty głównej ATX (opisano złącze na płycie głównej firmy Intel)
Złącze
Końcówka
brak Dioda LED zasilania/uśpienia
brak Dioda LED twardego dysku
Sygnał
22
Gnd
21
Bez połączenia/Klucz
20
PWR_LED
17
Klucz
18
Gnd
17
Bez połączenia/Klucz
16
HD PWR
15
HD Active#
14
Klucz
13
HD_PWR +5V
brak
12
Bez połączenia
IrDA
11
CONIR (Consumer IR)
10
IrTX
9
Gnd
8
IrRX
7
Klucz
6
+5V
5
Bez połączenia
brak Uśpienie/Obudzenie
Zasilanie
4
SLEEP_PU (pullup)
3
SLEEP
2
Gnd
1
SW_ON#
Tabela 4.22 przedstawia informację zapisaną w 64-bajtowej standardowej pamięci CMOS RAM. Pamięć ta przechowuje dane o konfiguracji komputera, a jest odczytywana i zapisywana przez program konfiguracyjny BIOS-u. W oryginalnym komputerze AT, jako pamięć CMOS RAM (Complementary Metal-Oxide Semiconductor) zastosowano układ MC 146818 firmy Motorola. Układ ten zawierał także zegar czasu rzeczywistego (RTC - Real Time Clock). Zegar zużywał 10 z 64 bajtów dostępnych w tym układzie. Pozostałe 54 bajty znalazły zastosowanie jako magazyn informacji o konfiguracji komputera. W nowszych systemach, pamięć CMOS RAM zawarto w układzie kontrolera płyty głównej (South Bridge), Super I/O chip bądź też zastosowano moduły nieulotnej pamięci RAM podtrzymywanej bateryjnie (NYRAM, Non-Volotaile RAM). Producentami tych pamięci są m.in. firmy Dallas oraz Benchmarq. Standardowy format informacji przechowywanej w pamięci CMOS RAM przedstawiono w tabeli 4.22. Tabela 4.22. Organizacja pamięci CMOS RAM komputera AT Adres Komór Rozmiar ka słowa
Znaczenie
00h
0
1 bajt
Licznik sekund zegara (BCD)
0lh
1
1 bajt
Wartość sekund alarmu (BCD)
02h
2
1 bajt
Licznik minut zegara (BCD)
03h
3
1 bajt
Wartość minut alarmu (BCD)
()4h
4
1 bajt
Licznik godzin zegara (BCD)
05h
5
1 bajt
Wartość godzin alarmu (BCD)
06h
6
1 bajt
Dzień tygodnia (BCD)
07h
7
1 bajt
Dzień miesiąca (BCD)
08h
8
1 bajt
Miesiąc (BCD)
09h
9
1 bajt
Dwie ostatnie cyfry roku (BCD)
0Ah
0
1 bajt
Rejestr A Bit 7 = pole informacyjne daty/czasu 0 = można czytać datę/czas, i = właśnie odbywa się aktualizacja czasu.
Tabela 4.22. cd. Organizacja pamięci CMOS RAM komputera AT Adres
Komórka
0Bh
11
Rozmiar słowa l bajt
Znaczenie
Bit 4 - generacja przerwania od cyklu aktualizowania: l = aktywna, 0 = zablokowana (wartość domyślna). Bit 3 - generacja sygnału prostokątnego: 1 = aktywna, 0 = zablokowana (wartość domyślna). Bit 2 - kodowanie daty: 1 = BCD (wartość domyślna), 0 = binarne. Bit l - tryb pracy zegara: 1 = 24-godzinny (wartość domyślna), 0= 12-godzinny. Bit O - funkcja czasu letniego: l = aktywna, O = wyłączona (wartość domyślna).
0Ch
1
l bajt
Rejestr C Bit 7 = znacznik IRQF Bit 6 = znacznik PF Bit 5 = znacznik AF Bit 4 = znacznik UF Bity 3-0 = zarezerwowane
0Dh
13
l bajt
Rejestr D Bit 7 - bit wiarygodności danych CMOS RAM. (Valid CMOS RAM) 0 = niski poziom napięcia baterii CMOS, dane niewiarygodne; 1 = prawidłowe napięcie baterii CMOS, dane wiarygodne. Bity 6-0 = zarezerwowane.
0Eh
14
l bajt
Rejestr stanu funkcji diagnostycznych Bit 7 - stan zasilania zegara czasu rzeczywistego CMOS: 0 = zasilanie ciągłe, 1 = nastąpiła przerwa w zasilaniu. Bit 6 - suma kontrolna danych w pamięci CMOS: 0 = prawidłowa, 1 = nieprawidłowa.
0Eh
14
l bajt
Bit 5 - stan konfiguracji ustalony przez POST: 0 = zgodny z danymi z pamięci CMOS, 1 = niezgodny z danymi z pamięci CMOS. Bit 4 - rozmiar pamięci ustalony przez POST: 0 = zgodny z wartością z pamięci CMOS, 1 = niezgodny z wartością z pamięci CMOS. Bit 3 - wynik inicjowania dysku twardego: 0 = inicjowanie prawidłowe, 1 = błąd inicjowania. Bit 2 - czas wskazywany przez zegar CMOS: 0 = wiarygodny, 1 = błędny. Bity l i O – zarezerwowane
0Fh
15
l bajt
Przyczyna restartu systemu:
00h = włączenie komputera lub miękki reset (soft reset), 0lh = restart po pomyślnym wyznaczeniu rozmiaru pamięci, 02h = restart po pomyślnym wykonaniu testu pamięci, 03h = restart po wystąpieniu błędu w czasie testu pamięci, 04h = restart po zakończeniu testu POST, 05h = restart po zgłoszeniu sygnału EOI do kontrolera przerwań, skok daleki,
06h = restart po pomyślnym wykonaniu testu trybu chronionego, 07h = restart po błędzie w czasie testu trybu chronionego, 08h = restart po nieprawidłowym wyznaczeniu rozmiaru pamięci, 09h = restart po przemieszczeniu bloku pamięci za pomocą funkcji przerwania Int 15h, 0Ah = skok daleki, nie nastąpiło zgłoszenie sygnału EOI do kontrolera przerwań, 0Bh = dotyczy tylko procesora 386.
l0h
16
l bajt
Typy napędów dysków elastycznych Bity 7—4 = typ pierwszego napędu Bity 3-0 = typ drugiego napędu 0000 = brak 0001 = 360 kB 0010 =1,2 MB 0011 =720 kB 0100= 1,44 MB
llh
17
l bajt
12h
18
l bajt
Zarezerwowany Typy napędów dysków twardych Bity 7-4 = typ pierwszego napędu (0-15) Bity 3-0 = typ drugiego napędu (0-15)
13h
19
l bajt
Zarezerwowany
14h
20
l bajt
Bajt konfiguracji sprzętowej Bity 7-6 - liczba zainstalowanych napędów dysków elastycznych: 00= jeden napęd, 01 = dwa napędy. Bity 5-4 = sterownik monitora: 00 = sterownik wyposażony we własny BIOS, 01 = sterownik CGA pracujący w trybie 40 znaków w wierszu, 10 = sterownik CGA pracujący w trybie 80 znaków w wierszu, 11 = monochromatyczny sterownik monitora. Bity 32 = zarezerwowane. Bity l = obecny koprocesor arytmetyczny . Bity O = obecny napęd dysków elastycznych.
15h
21
l bajt
Rozmiar pamięci podstawowej (młodszy bajt)
16h
22
l bajt
Rozmiar pamięci podstawowej (starszy bajt)
17h
23
l bajt
Rozmiar pamięci extended (młodszy bajt)
18h
24
l bajt
Rozmiar pamięci extended (starszy bajt)
19h
25
l bajt
Bajt dodatkowych informacji o pierwszym dysku twardym Bajt dodatkowych informacji o drugim dysku twardym
lAh
26
l bajt
IBh
27
9 bajtów
Zarezerwowane
2Eh
46
l bajt
Starszy bajt sumy kontrolnej pamięci CMOS
2Fh
47
l bajt
Młodszy bajt sumy kontrolnej pamięci CMOS
30h
48
l bajt
Młodszy bajt rzeczywistego rozmiaru pamięci extendcd
31h
49
l bajt
Starszy bajt rzeczywistego rozmiaru pamięci cxtended
32h
50
l bajt
Bieżące stulecie (BCD)
33h
51
l bajt
Informacje dla programu POST Bit 7 - informacja dotycząca 128 kB tzw. pamięci wysokiej (ang. top 128 kB base memory) 0 = brak 128 kB pamięci wysokiej 1 = zainstalowane 128 kB pamięci wysokiej Bit 6 - znacznik programu konfiguracyjnego 0 = tryb normalny (ustawienie domyślne) 1 = zgłaszany pierwszy komunikat Bity 5-0 = zarezerwowane
Wiele nowych systemów posiada więcej niż 64 bajty pamięci CMOS. Może to być 2 kB lub 4 kB. Dodatkowe miejsce przechowuje dane Plug-and-Play. Nie przyjął się jednak żaden standard definiujący jednoznacznie sposób użycia tej pamięci. Powyższa tabela prezentuje jedynie metodę przechowywania informacji przez oryginalne systemy PC. Nowsze BlOS-y mogą to robić w inny sposób. Po bardziej szczegółowe informacje należy się zgłosić do producenta BIOS-u. Jest to następny przykład na to, jak bliski jest związek pomiędzy BlOSem a sprzętem płyty głównej. Istnieją programy potrafiące zachowywać i odzyskiwać informacje BIOS-u. Jednak ze względu na różnorodność rozwiązań technicznych, polegać można jedynie na programach opracowanych specjalnie dla konkretnego producenta BIOS-u. W tabeli 4.23 przedstawiono wartości przechowywane przez BIOS w specjalnej komórce pamięci CMOS, tzw. bajcie diagnostycznym (ang. diagnostic status byte). Bajt ten można sprawdzić za pomocą odpowiedniego programu diagnostycznego i w ten sposób ustalić, czy nie jest zgłaszany jeden z kodów oznaczających pojawienie się problemu ze sprzętem (ang. trouble code).
Tabela 4.23. Komórka pamięci CMOS przechowująca wynik działania procedur diagnostycznych (dotyczy komputerów A T i PS/2) Ustawiony bit 76543210 szesnastkowa
Wartość Znaczenie
80
Brak zasilania układu rzeczywistego (RTC)
40
Nieprawidłowa CMOS RAM
20
Nieprawidłowa konfiguracja wykryta przez POST
10
Nieprawidłowy rozmiar przez POST
08
Błąd zainicjowania dysku twardego lub jego kontrolera
04
Nieprawidłowy czas podawany przez zegar czasu
02 01
00
suma
zegara
kontrolna
czasu pamięci
sprzętowa
pamięci wykryty
rzeczywistego (RTC) Konfiguracja kontrolerów dysków niezgodna z rzeczywistą Przekroczenie czasu (ang. time-out) przv próbie odczytu identyfikatora kontrolera dysku Bez błędów (sytuacja normalna)
Dowolna wartość różna od zera oznacza wystąpienie błędu i jest sygnalizowana przy starcie komputera. Uruchomienie programu konflguracyjnego spowoduje wyzerowanie wszystkich bitów bajtu diagnostycznego.
Rozdział 5.
Gniazda i karty rozszerzające Sercem każdego komputera jest płyta główna. Różne związane z nią pojęcia zostały omówione w rozdziale 4. pt. „Płyty główne". W skład płyty głównej wchodzi szereg podzespołów. Ważnymi elementami określającymi działanie płyty głównej są magistrale. W tym rozdziale zostaną omówione różne rodzaje magistrali spotykanych w komputerach PC.
Czym jest magistrala? Magistrala jest „drogą", po której są przesyłane dane. Łączy ona co najmniej dwa elementy komputera. Istnieje cała hierarchia magistral. Komputer PC posiada przynajmniej trzy magistrale, niektóre - cztery i więcej. Hierarchię określa prędkość ich działania. Wolniejsze są przyłączone do szybszych. Każde urządzenie w systemie jest przyłączone do jakiejś magistrali, a niektóre (jak układy płyt głównych - chipset) działają jak mosty łączące je ze sobą. Oto główne ich typy: * Magistrala procesora. Jest to najszybsze połączenie w systemie. Jest ono przede wszystkim używane przez procesor do przekazywania informacji do i z pamięci cache oraz komunikowania się z mostkiem pomocnym (North Bridge) chipsetu. Magistrala procesora w systemach Pentium II pracuje z prędkością 66 lub 100 MHz i ma szerokość 64 bitów. * Magistrala AGP (Accelerated Graphics Port). Jest to 32-bitowa szyna o wysokiej prędkości - 66 MHz, stworzona przede wszystkim dla kart graficznych. Jest ona podłączona bezpośrednio do mostka pomocnego (North Bridge) chipsetu. * Magistrala PCI (Peripheral Component Interconnect). Jest to 33-megahercowa, 32-bitowa magistrala znajdująca się w zasadzie w każdym systemie 486 i raczej we wszystkich komputerach klasy Pentium i lepszych. Magistrala ta jest obsługiwana przez mostek północny (North Bridge). W komputerach jest ich najczęściej cztery. Znajduje ona zastosowanie jako złącze dla kart wymagających szybkiej wymiany danych. Na przykład kart sieciowych, kontrolerów SCSI. Mostek południowy (South Bridge) jest przyłączony do tej magistrali, a do niego przyłączone są złącza USB oraz IDE. * Magistrala ISA (Industry Standard Architecture). Jest to 8-megahercowa, 16-bitowa szyna, która po raz pierwszy pojawiła się w postaci 5-megahercowej, 8-bitowej w komputerach IBM PC, a z teraźniejszą częstotliwością- 8 MHz -w komputerze IBM AT. Jest ona bardzo wolna, ale nadal świetnie się sprawuje jako złącze dla wolnych i starszych kart rozszerzeń. Obsługuje ją mostek południowy, który jest jednocześnie jej kontrolerem oraz złączem pomiędzy szynami ISA oraz szybszymi szynami PCI. Chip Super I/O jest najczęściej przyłączony właśnie do szyny ISA. Dość często się zdarza, że mówiąc o magistrali mamy na myśli magistralę l/O, określaną także mianem gniazda rozszerzającego (ang. expansion słot bus). Niezależnie od nazwy, magistrala zewnętrzna (I/O) jest główną magistralą komputera, przez którą przechodzi większość danych. Zazwyczaj najbardziej ruchliwym połączeniem jest droga do karty graficznej. Chipset płyty głównej można porównać do dyrygenta kierującego orkiestrą komponentów komputera, który w odpowiedniej chwili umożliwia każdemu z nich zabranie głosu, czyli uzyskanie dostępu do odpowiedniej magistrali.
Typ magistrali
Szerokość (bity)
Prędkość (MHz)
Przepustowość (MB/s)
ISA 8 bit
8
4,77
2,39
ISA 16 bit
16
8,33
8,33
EISA*
32
8,33
33,3
VLB*
32
33,33
133,33
PCI
32
33,33
133,33
PCI-2x**
32
66,66
266,66
PCI 64 bit** 64
66,66
266,66
PCI-2x bit**
64 64
66,66
533,33
AGP
32
66,66
266,66
AGP-2x
32
66,66
533,33
AGP-4x
32
66,66
1066,66
• EISA i VLB nie są już wykorzystywane w aktualnie produkowanych płytach głównych. ** Są to proponowane typy magistral i jak dotąd nie zastosowano ich w komputerach PC. Istnieją dwie propozycje zwiększenia możliwości magistrali PCI. Pierwszą z nich jest przejście z 32 do 64 bitów. Drugą - podwojenie szybkości magistrali, która miałaby pracować z częstotliwością 66 MHz. Jak dotąd, żadnego z tych rozwiązań nie zaimple-mentowano w komputerach PC i nic nie wskazuje na to, by w najbliższym czasie miało dojść pod tym względem do jakiegoś znaczącego przełomu. Bardziej prawdopodobne jest, że w najbliższym czasie zobaczymy nowe rozwiązania magistrali AGP, czyli tryb AGP-2x i AGP-4x. Co ciekawe, oba szybsze tryby osiągnięto przy tej samej częstotliwości pracy magistrali; jedyną różnicą jest to, że zamiast, jak dotychczas, l bitu w ciągu cyklu zegarowego, w szybszych trybach pracy magistrali będą transferowane 2 lub 4 bity. Dzięki temu magistrala AGP będzie w stanie zaspokoić wymagania przepustowości przyszłych kart graficznych, aż do 1066 MB/s! Poniżej omówiono występujące w komputerze magistrale, łącznie z magistralą procesora, magistralami jej podległymi oraz opisanymi w poprzedniej tabeli głównymi magistralami I/O (Wejścia/Wyjścia).
Magistrala procesora Magistrala procesora jest połączeniem komunikacyjnym pomiędzy procesorem a chipsetem płyty głównej, konkretnie z układem North Bridge. Magistrala ta pracuje z prędkością płyty głównej, czyli zazwyczaj jest to 66, 75 lub 100 MHz. Jest ona używana do wymiany danych pomiędzy procesorem a pamięcią zewnętrzną cache procesora klasy Pentium P5. Ilustracja 5.1 przedstawia schemat magistral typowego komputera klasy Pentium. Na rysunku 5.1 ukazano również miejsce i sposób umieszczenia w architekturze systemu innych głównych magistral, takich jak PCI czy IDE. Wyraźnie widać, że architektura komputera jest trójpoziomowa, z najszybszym elementem komputera - procesorem - na szczycie, a magistralą ISA na dole. Różne komponenty komputera są podłączone do jednej z trzech głównych magistral. Komputery klasy Pentium (P5) posiadają zewnętrzną pamięć podręczną; pamięci te są podłączone do magistrali procesora i działają z pełną szybkością płyty głównej (zazwyczaj 66 MHz).
Choć procesory Pentium stawały się coraz szybsze i szybsze, pamięci podręczne L2 nadal niestety pracowały z względnie niską częstotliwością płyty głównej. Barierę tę przełamały procesory Pentium Pro i Pentium II. Pamięć podręczna drugiego poziomu (L2) została w nich przeniesiona z płyty głównej bezpośrednio do procesora, dzięki czemu mogła działać z szybkością bliższą rzeczywistej częstotliwości procesora. W procesorach Pentium Pro pamięć podręczna L2 działa z pełną częstotliwością procesora; w procesorach Pentium II działa z połową ich częstotliwości. Nawet połowa częstotliwości procesora nadal wiąże się z dużo większą szybkością niż częstotliwość płyty głównej, z którą pracowały pamięci podręczne drugiego poziomu umieszczane na płytach głównych komputerów klasy P5, z gniazdem Socket 7. Zintegrowanie z procesorem pamięci podręcznej L2 jest głównym powodem wyższości architektur Socket 8 i Slot l nad architekturą Socket 7. Warto zauważyć, że ostatnio zaprezentowano nową wersję architektury Socket 7, nazwaną „Super-7", zaprojektowaną przede wszystkim przez firmy AMD i Cyrix. Jest ona przeznaczona dla ich nowych procesorów klasy P5, które pracują ze 100-megahercowymi płytami głównymi. Mimo iż 100 MHz to znacznie więcej niż 66 MHz, jest to i tak niewiele, w porównaniu z architekturą Slot-1, w której szybkość pamięci podręcznej L2 wzrasta automatycznie, wraz ze wzrostem częstotliwości procesora. Dzięki zintegrowaniu pamięci podręcznej L2 z procesorem, architektura Slot l oferuje większą wydajność. Rysunek 5.1. Architektura typowego komputera PC klasy P5 (z procesorem Pentium), ukazująca różne poziomy magistral w systemie
Na rysunku 5.2 ukazano architekturę typowego komputera Pentium II. Jak widać, wprowadzono dwie główne zmiany: zamiast, jak dotychczas, z częstotliwością płyty głównej, pamięć podręczna L2 działa z połową częstotliwości procesora. Dodatkowo, częstotliwość pracy płyty głównej została zwiększona do 100 MHz, co radykalnie zwiększyło wydajność układów pamięci systemowej, którymi są 100-megahercowe kości SDRAM. Inną ważną zmianą jest dodanie pojedynczego złącza nowej magistrali, nazwanej AGP (Accelerated Graphics Port). Dzięki temu, karta graficzna otrzymała przeznaczoną tylko dla niej, bardzo szybką magistralę, działającą z podwójną prędkością magistrali PCI. Częstotliwość pracy magistrali AGP jest obecnie nieco myląca, ponieważ tryby 2x i 4x umożliwiają dwu- lub czterokrotne zwiększenie wydajności względem podstawowych 66 MHz. Umożliwia to uzyskanie olbrzymiej przepustowości, wymaganej dla zgrywania lub wyświetlania sekwencji wideo.
Rysunek 5.2. Architekturatypowego komputera PC z procesorem Pentium H (klasy P6), ukazująca różne poziomy magistral w systemie
Zadaniem magistrali procesora jest transfer informacji pomiędzy procesorem a otoczeniem z jak największą szybkością, dlatego też magistrala ta pracuje z dużo wyższą częstotliwością niż pozostałe magistrale w komputerze, w żadnym wypadku nie może być „wąskim gardłem" systemu.
Magistrala składa się ze ścieżek przewodzących sygnały elektryczne odpowiadające danym, adresom (magistrala adresowa zostanie omówiona w kolejnym podrozdziale) i sygnałom sterującym. W komputerach z procesorem Pentium magistrala składa się z 64 linii danych, 32 linii adresowych i pewnej ilości linii sterujących. Komputery z procesorami Pentium Pro i Pentium II mają 36 linii adresowych, a pozostałych linii -tyle samo, co Pentium i Pentium MMX. Magistrala procesora pracuje z częstotliwością równą częstotliwości zewnętrznego sygnału zegarowego procesora. Może to być czasami mylące, ponieważ obecnie większość procesorów pracuje z wewnętrzną częstotliwością wyższą od częstotliwości zegara zewnętrznego. Np. w komputerze z procesorem Pentium 100 procesor pracuje z częstotliwością 100 MHz, lecz częstotliwość dostarczona mu z zewnątrz wynosi tylko 66,6 MHz. Procesory Pentium 133 i Pentium 166 również pracują z zewnętrzną częstotliwością 66,6 MHz, podczas gdy procesor Pentium II jest przystosowany do pracy z magistralą procesora 100 MHz. W większości nowszych komputerów rzeczywista częstotliwość procesora jest równa częstotliwości pracy magistrali procesora pomnożonej przez pewien współczynnik (zazwyczaj równy 1,5; 2; 2,5 lub 3 itd.). Więcej informacji na ten temat można znaleźć w podrozdziale „Częstotliwość pracy procesora" w rozdziale 6. pt. „Mikroprocesory i Chipsety płyt głównych". Magistrala procesora jest sprzężona bezpośrednio z końcówkami procesora i przesyła dane z prędkością jednego bitu przypadającego na pojedynczą linię magistrali w czasie jednego lub dwóch cykli zegara. Tak więc procesory Pentium, Pentium Pro czy Pentium II mogą przesłać 64 bity danych w czasie jednego cyklu zegarowego. W celu określenia szybkości transferu danych przez magistralę procesora, należy pomnożyć szerokość magistrali danych (64 bity w przypadku procesorów Pentium, Pentium Pro i Pentium II) przez częstotliwość pracy magistrali (równą częstotliwości zewnętrznej zegara procesora). Dla procesorów Pentium, Pentium Pro i Pentium II, taktowanych zewnętrznym zegarem o częstotliwości 66 MHz i mogących przesyłać jeden bit danych przez linię magistrali w czasie pojedynczego cyklu zegarowego, maksymalny transfer wynosi 528 MB/sek. Wynika to z następującego równania: 66 MHz x 64 bity = 4 224 Mbit/sek. 4 224 Mbit/sek / 8 bitów(bajt) = 528 MB/sek. Powyższa wartość, zwana często szerokością pasma przenoszenia (ang. bandwidth) magistrali, reprezentuje pewne teoretyczne maksimum. Rzeczywisty transfer będzie znacznie wolniejszy. Na niższą od spodziewanej wartość transferu danych mają wpływ takie czynniki jak struktura wewnętrzna układu kontrolera magistrali, struktura wewnętrzna kości pamięci oraz ich szybkość itp.
Magistrala pamięciowa Magistrala pamięciowa jest wykorzystywana do przesyłania informacji pomiędzy procesorem a pamięcią RAM - główną pamięcią komputera. Jest ona przyłączona do układu mostku północnego (North Bridge). W zależności od rodzaju pamięci, jakie są zamontowane w systemie, Mostek północny będzie wymuszał na magistrali pamięciowej różną prędkość. Pamięć FPM (Fast Page Mode) oraz EDO (Extended Data Out) jest taktowana sygnałem 16 MHz, ze względu na 60-nanosekundowy cykl jej pracy. Nowsze Chipsety i płyty główne obsługujące pamięć SDRAM mogą taktować pamięć z prędkością 66 MHz (15 ns) lub nawet 100 MHz (10 ns). Sprawia to, że dostęp komputera do pamięci operacyjnej jest dużo szybszy i właściwie nie ma potrzeby stosowania pamięci cache drugiego poziomu (level 2). Tak też się stało w przypadku procesorów Pentium II, które posiadają pamięć typu L2 wbudowaną w procesor.
Należy pamiętać, że magistrala pamięciowa ma tę samą szerokość co magistrala procesora. Oznacza to, że komputer 64-bitowy, np. wyposażony w procesor Pentium, ma 64-bitową magistralę pamięciową. Banki pamięci są omówione w rozdziale 7. pt. „Pamięć komputera".
Magistrala adresowa Magistrala adresowa jest częścią magistrali procesora i magistrali pamięciowej. W naszej dyskusji o magistrali procesora stwierdziłem między innymi, że magistrala w komputerach z procesorem Pentium składa się z 64 linii danych, 32 linii adresowych (36 linii w Pentium Pro czy Pentium II) i pewnej liczby linii sterujących. Linie adresowe stanowią łącznie magistralę adresową, która na większości diagramów jest przedstawiana jako część magistrali procesora i magistrali pamięciowej. Magistrala adresowa służy do przesyłania adresów komórek pamięci, w których znajdują się dane biorące udział w operacji przesyłu. Informacja na magistrali adresowej wskazuje precyzyjnie adres komórki pamięci biorącej udział w kolejnym przesyle. Szerokość magistrali adresowej określa także ilość pamięci, jaką procesor może bezpośrednio zaadresować.
Zastosowania gniazd rozszerzających Magistrala zewnętrzna (wyprowadzona w gniazdach rozszerzających) umożliwia komunikację procesora z urządzeniami peryferyjnymi. Magistrala ta jest potrzebna, ponieważ komputery sprzedawane w podstawowej konfiguracji nie zaspokajają w pełni wymagań i oczekiwań osób, które je kupują. Magistrala zewnętrzna umożliwia rozszerzenie możliwości komputera poprzez dołączanie do niego dodatkowych urządzeń. W gniazdach rozszerzających umieszcza się podstawowe urządzenia, takie jak karta dźwiękowa czy karta graficzna, a także bardziej złożone, np. karty sieciowe, adaptery SCSI i inne.
We współczesnych komputerach PC różnorodne urządzenia peryferyjne są często wbudowane w płytę główną. Większość komputerów ma obecnie przynajmniej dwa kontrolery dysków IDE (oznaczone jako primary i secondary), kontroler stacji dyskietek, dwa porty szeregowe i port równoległy - wszystkie wbudowane w płytę główną. Kontrolery te są zazwyczaj częścią pojedynczego układu kontrolera wejścia/wyjścia (super I/O chip). Wiele płyt ma także wbudowany port myszy, kartę graficzną, adapter SCSI czy interfejs sieciowy. W przypadku takich komputerów nie trzeba nawet korzystać z gniazd rozszerzających. Niemniej jednak kontrolery urządzeń i porty zintegrowane z płytą w dalszym ciągu komunikują się z procesorem przez magistralę zewnętrzną. Pomimo że są wbudowane w płytę główną, zachowują się tak, jakby były kartami wkładanymi do gniazd rozszerzających. Chociaż w niektórych komputerach PC znajduje się tylko jedno gniazdo rozszerzające, to większość komputerów ma na płycie głównej do ośmiu takich gniazd. Pojedyncze gniazdo służy do włożenia w nie specjalnej karty rozszerzającej (riser slot card), na której są gniazda przeznaczone na właściwe karty. Gniazda na karty rozszerzające są rozmieszczone po obu stronach karty riser card. Standardowe karty rozszerzające po włożeniu ich do karty riser card umieszczone są w pozycji równoległej, a nie prostopadłej do płyty głównej. Karty riser card są wykorzystywane często wtedy, kiedy producentowi zależy na zmniejszeniu rozmiarów płyty głównej. Takie komputery są określane jako Slimline, Low Profile albo pizza box.
Konfiguracja z pojedynczą kartą riser card może dziwić na pierwszy rzut oka, jednak magistrala w takim komputerze niczym się nie różni od magistrali w komputerach o pełnych rozmiarach płyty głównej - jedyna różnica wynika z zastosowania karty riser card. Zazwyczaj odradzam zakup komputerów Low Profile czy Slimline, które mają płytę główną w formacie LPX. Chodzi tu przede wszystkim o fizyczny kształt płyty. Wymiana płyty, która pasuje do obudowy konkretnego komputera, na nowszy model może stanowić problem, ponieważ płyty te są raczej nieosiągalne. Firma Intel opracowała jednak ostatnio nowy format NLX płyty głównej, który pasuje do obudowy Low Profile i jednocześnie zdobywa sobie coraz większą popularność wśród producentów komputerów.
Arbitraż magistrali (bus mastering) Nowsze typy magistrali wykorzystują w celu przyśpieszenia pracy całego komputera technologię zwaną arbitrażem magistrali. Arbiter magistrali jest kontrolerem wyposażonym we własny procesor, który może wykonywać rozkazy niezależnie od procesora głównego. Poprawną realizację arbitrażu zapewnia tzw. jednostka ISP (integrated system peripherial chip). ISP umożliwia karcie nadzorowanej przez układ arbitrażu magistrali uzyskanie na pewien czas wyłącznej kontroli nad magistralą, tak jakby ta karta była pełnoprawną jednostką centralną. Kiedy karta ma wyłączną kontrolę nad magistralą komputera, to może o wiele szybciej wykonywać pewne operacje. Np. kontroler dysku twardego, który jest modułem nadrzędnym (tzn. może przejmować kontrolę nad magistralą), osiąga o wiele szybszy transfer danych niż kontroler, który nie pracuje w trybie arbitrażu magistrali. W celu określenia kolejności przejmowania kontroli nad magistralą przez urządzenia, jednostka ISP wykorzystuje czteropoziomowy priorytet: odświeżanie pamięci DRAM
procesor
transfer danych przez kanał DMA
inne moduły nadrzędne
Karta pracująca według arbitrażu magistrali powiadamia ISP o zamiarze przejęcia kontroli nad magistralą. Po uwzględnieniu powyższych priorytetów ISP przejmuje kontrolę nad kartą zamierzającą przejąć magistralę. Karta ta ma wbudowany układ zabezpieczający przed przejęciem magistrali na zbyt długi czas, co spowodowałoby kolizję z operacjami o najwyższym priorytecie, takimi jak odświeżanie pamięci.
Typy magistrali zewnętrznej Od momentu pojawienia się pierwszego komputera PC opracowano wiele typów magistrali zewnętrznej. Powód tej różnorodności był dość prosty: komputery pracowały wydajniej, dlatego potrzebne były coraz większe szybkości operacji wejścia/wyjścia. Potrzeba osiągnięcia większej wydajności magistrali wynika przede wszystkim z trzech powodów: * pojawianie się coraz szybszych procesorów, * coraz większe wymagania sprzętowe ze strony oprogramowania, * coraz większe wymagania sprzętowe aplikacji multimedialnych, Każda z tych trzech przyczyn wymusza konstruowanie jak najszybszych magistrali zewnętrznych. Dla wielu może być niespodzianką fakt, że wszystkie obecnie produkowane komputery mają wciąż tę samą podstawową architekturę magistrali, co leciwy komputer IBM PC/AT z roku 1984. Jednak większość z nich posiada obecnie dodatkową, szybką magistralę lokalną (local I/O bus), taką jak VL-Bus czy PCI, zapewniającą większą wydajność tym kartom, które tego potrzebują.
Jednym z powodów, dla których nowsze rozwiązania magistrali zewnętrznej tak wolno były akceptowane, była konieczność zachowania kompatybilności wstecz - która to, jak kotwica, hamowała rozwój komputerów PC. Jedną z przyczyn popularności komputera PC jest jego standaryzacja. Spowodowała ona pojawienie się tysięcy kart rozszerzających różnych producentów, często mało znanych, jednak każda taka karta została zaprojektowana jako zgodna z pierwotną specyfikacją magistrali PC. Jeżeli pojawia się nowszy komputer o lepszych parametrach, to jego magistrala musi być kompatybilna fizycznie ze starszymi typami magistrali, ponieważ w przeciwnym razie starsze karty rozszerzające stałyby się bezużyteczne. Z tego powodu technologie rozwoju magistrali będą raczej ewoluować wokół istniejących rozwiązań, aniżeli śmiało wykraczać naprzód. Magistrale zewnętrzne można identyfikować poprzez ich architekturę. Wyróżnia się następujące architektury magistrali: * ISA * Micro Channel Architecture (MCA) * EISA * VESA Local Bus (VL-Bus) * PCI Local Bus * AGP * PC Card (poprzednio PCMCIA) * FireWire (IEEE-1394) * Universal Serial Bus (USB)
II Patrz „Standard PC-Card", str.l 163 II Patrz „Firewire (IEEE 1394)", str. 672 II Patrz „USB (Universal Serial Bus)", str. 669 Różnice pomiędzy nimi wynikają głównie z ilości danych, jaka może być przesłana przez magistralę w jednostce czasu, i częstotliwości, z jaką to się odbywa. Każda z architektur magistrali jest zaimplementowana na płycie głównej poprzez układ kontrolera magistrali (chipset), połączony z magistralą lokalną procesora. Zazwyczaj ten sam chipset sprawuje kontrolę nad magistralą pamięciową. W kolejnych podrozdziałach opisane zostaną różne rodzaje magistrali komputerów PC.
Magistrala ISA Architektura ISA (Industry Standard Architecture) była 8-bitową magistralą oryginalnego komputera IBM PC z roku 1981. Szerokość magistrali została zwiększona do 16 bitów w komputerze IBM PC/AT, który pojawił się w 1984 roku. ISA jest podstawowym rodzajem magistrali, spotykanym w znakomitej większości współczesnych komputerów PC dostępnych na rynku. Może zdumiewać fakt, że tak archaiczna architektura jest ciągle wykorzystywana w komputerach o coraz lepszych parametrach, jednak dzieje się tak dlatego, że magistrala ISA jest niezawodnym rozwiązaniem o przystępnej cenie, a przy tym jest kompatybilna ze starszymi kartami. Ponadto ta stara magistrala jest wciąż szybsza niż wiele urządzeń, które się do niej podłącza.
Opracowano dwie wersje magistrali ISA różniące się od siebie liczbą bitów, które mogą być przesłane magistralą w czasie pojedynczego cyklu. Starsza wersja magistrali jest 8-bitowa, a nowsza 16-bitowa. Oryginalna magistrala 8-bitowa w komputerach PC i XT pracowała z częstotliwością 4,77 MHz. 16-bitowa wersja, zastosowana w AT, pracowała najpierw z częstotliwością 6 MHz, a później 8 MHz. Ostatecznie producenci sprzętu wspólnie ustalili częstotliwość 8,44 MHz jako maksymalną szybkość dla 8- i 16-bitowej magistrali ISA. Częstotliwość ta została uznana za standard w celu zapewnienia kompatybilności z kartami, które będą pojawiały się w późniejszych latach. Niektóre komputery są wyposażone w magistralę ISA, która może pracować szybciej, jednak część kart rozszerzających może nie działać poprawnie z wyższymi prędkościami. Pojedynczy transfer danych przez magistralę ISA zajmuje od dwóch do ośmiu cykli. Stąd teoretyczny maksymalny transfer dla magistrali ISA wynosi ok. 8 MB/sek. Wynika to z następujących obliczeń: 8 MHz x 16 bitów = 128 Mbit/sek. 128 Mbit/sek / 2 cykle = 64 Mbit/sek. 64 Mbit/sek / 8 = 8 MB/sek. Szerokość pasma przenoszenia magistrali 8-bitowej wynosiłaby połowę tej wartości (4 MB/sek.). Należy jednak pamiętać, że powyższe wartości stanowią pewne teoretyczne maksimum. Efektywne pasmo przenoszenia jest o wiele niższe - zazwyczaj o połowę -wynika to z zastosowania dodatkowych protokołów magistrali zewnętrznej. Pomimo to, magistrala ISA z szybkością transferu rzędu 8 MB/sek. jest wciąż szybsza od wielu urządzeń, które są do niej podłączane.
8-bitowa magistrala ISA Ta architektura została zastosowana w oryginalnym komputerze IBM PC. Praktycznie nie spotyka się jej już obecnie w nowych komputerach, jednak wciąż istnieje w setkach tysięcy komputerów PC. Fizyczne gniazdo magistrali ISA przypomina kształtem połączenie dwóch kawałków drewna metodą stosowaną dawniej przez producentów mebli. Określa się je mianem złącza krawędziowego (ang. edge connector). Karta rozszerzająca z 62 polami kontaktowymi jest wkładana w gniazdo rozszerzające na płycie, w którym są 62 końcówki pasujące do karty. W gnieździe wyprowadzonych jest 8 linii danych i 20 linii adresowych, co umożliwia włożenie do gniazda karty z l MB pamięci. Rysunek 5.3 przedstawia rozmieszczenie końcówek w złączu 8-bitowej magistrali ISA. Rysunek 5.4 przedstawia rozmieszczenie końcówek w gnieździe rozszerzającym.
Rysunek 5.3. Rozmieszczenie końcówek w złączu 8-bitowej magistrali ISA Sygnał
Rysunek 5.4. 8-bitowe złącze ISA
Chociaż schemat magistrali jest dość prosty, firma IBM zwlekała do roku 1987 z opublikowaniem pełnej specyfikacji magistrali wraz z podaniem zależności czasowych dla sygnałów danych i adresów, tak więc we wczesnych latach rozwoju komputerów producenci kart byli zdani wyłącznie na siebie. Problem ten został jednak rozwiązany, gdy komputery osobiste kompatybilne z IBM PC osiągnęły pozycję standardu, a producenci mogli poświęcić więcej czasu i inicjatywy, aby wykonać karty, które by poprawnie współpracowały z magistralą. 8-bitowa karta ISA ma następujące rozmiary: szerokość: 4,2 cala (106,68 mm) długość: 13,13 cali (333,5 mm) grubość: 0,5 cala (12,7 mm)
16-bitowa magistrala ISA Firma IBM wywołała prawdziwy szok, kiedy w 1984 roku zaprezentowała komputer IBM AT z procesorem 286. Procesor ten ma 16-bitową magistralą adresową, co oznacza, że komunikacja pomiędzy procesorem a pamięcią oraz pomiędzy procesorem a płytą główną odbywa się w 16-bitowych słowach zamiast w 8-bitowych, jak to było do tej pory. Procesor 286 mógł być zainstalowany na płycie głównej z 8-bitową magistralą zewnętrzną, oznaczałoby to jednak duży spadek wydajności kart rozszerzających podłączonych do magistrali. Pojawienie się procesora 286 stanowiło problem dla IBM. Firma stanęła przed dylematem, czy powinna opracować nową magistralę wejścia/wyjścia i odpowiadające jej nowe gniazda rozszerzające, czy też opracować komputer, który mógłby współpracować zarówno z kartami 8-bitowymi, jak i 16-bitowymi. IBM optował za tym drugim rozwiązaniem, a komputer PC/AT został wyposażony w zestaw 16-bitowych gniazd rozszerzających. W ich przedniej części można umieścić karty 8-bitowe, a w obydwu częściach gniazda - karty 16-bitowe.
Gniazda rozszerzające 16-bitowej magistrali ISA są wyposażone w tzw. klucz dostępu (ang. access key). Jest to wycięcie w karcie, pasujące do odpowiedniego kształtu złącza, w którym umieszczana jest karta. Klucze dostępu stosuje się zazwyczaj w celu zabezpieczenia przed nieprawidłowym włożeniem karty do gniazda. Rozszerzone 16-bitowe złącze ISA uzupełnia złącze 8-bitowe o dodatkowe 36 końcówek, które przesyłają sygnały potrzebne do zaimplementowania szerszej magistrali danych Dodatkowo zmieniono znaczenie dwóch końcówek w 8-bitowej części złącza. Obydwie te zmiany są raczej kosmetyczne i nie zmieniają zasady działania karty 8-bitowej. Rysunek 5.5 Przedstawia rozmieszczenie końcówek w złączu 16-bitowej magistrali ISA.
Sygnal masa
Końcówka Końcówka
Sygnał
- B1
A1 -
-I/O CHK
RESET DRV - B2
A2 -
Dane 7
+5 Vdc
- B3
A3 -
Dane 6
IRQ9
- B4
A4 -
Dane 5
-5 Vdc
- B5
A5 -
Dane 4
DRO2
- B6
A6 -
Dane 3
-12Vdc
- B7
A7 -
Dane 2
-0 WAIT
- B8
A8 -
Dane 1
+12Vdc
- B9
A9 -
Dane 0
masa
- B10
A10 -
-l/O CH RDY
-SMEMW
- B11
A11 -
AEN
-SMEMR
- B12
A12 -
Adres 19
-IOW
- B13
A13 -
Adres 18
-IOR
- B14
A14 -
Adres 17
-DACK 3
- B15
A15 -
Adres 16
DRQ3
- B16
A16 -
Adres 15
-DACK 1
- B17
A17 -
Adres 14
DRQ1
- B18
A18 -
Adres 13
-Odświeżanie - B19
A19 -
Adres 12
CLK MHz)
(4,77 - B20
A20 -
Adres 11
IRQ7
- B21
A21 -
Adres 10
IRQ6
- B22
A22 -
Adres 9
IRQ5
- B23
A23 -
Adres 8
IRQ4
- B24
A24 -
Adres 7
IRQ3
- B25
A25 -
Adres 6
-DACK 2
- B26
A26 -
Adres 5
T/C
- B27
A27 -
Adres 4
BALE
- B28
A28 -
Adres 3
+5 Vdc
- B29
A29 -
Adres 2
(14,3 - B30
A30 -
Adres 1
masa
- B31
A31 -
Adres 0
-MEMCS16
-D1
C1-
-SBHE
-I/OCS16
- D2
C2 -
Latch Adress 23
IRQ10
- D3
C3 -
Latch Adress 22
IRQ11
- D4
C4 -
Latch Adress 21
IRQ12
- D5
C5 -
Latch Adress 19
IRQ15
- D6
C6 -
Latch Adress 18
IRQ14
- D7
C7 -
Latch Adress 17
-DACK 0
- D8
C8 -
Latch Adress 16
DRQ0
- D9
C9 -
-MEMR
OSC MHz)
-DACK 5
- D10
C10 -
-MEMW
DRQ5
- D11
C11 -
Dane 8
-DACK 6
- D12
C12 -
Dane 9
DRQ6
- D13
C13 -
Dane 10
-DACK 7
- D14
C14 -
Dane 11
DRQ7
- D15
C15 -
Dane 12
+5 Vdc
- D16
C16 -
Dane 13
Master
- D17
C17 -
Dane 14
Masa
- D18
C18 -
Dane 15
Rysunek 5.6 przedstawia porównanie 8- i 16-bitowych gniazd rozszerzających ISA. Sygnał
Końcówka
Końcówka
Sygnał
- B1
A1 -
-I/O CHK
- B2
A2 -
Dane 7
-B3
A3-
-B4
A4 -
Dane6 Dane 5
- B5
A5 -
Dane 4
- B6
A6 -
Dane 3
- B7
A7 -
Dane 2
- B8
A8 -
Dane 1
- B9
A9 -
Dane 0
- B10
A10 -
-I/O
Masa
RESET DRV
+5Vdc IRQ2
-5Vdc
DRQ 2
-12 Vdc
-CARD SLCTD
+12Vdc
Masa
CH RDY - B11
A11 -
AEN
- B12
A12 -
Adres 19
- B13
A13 -
Adres 18
- B14
A14 -
Adres 17
- B15
A15 -
Adres 16
- B16
A16 -
Adres 15
- B17
A17 -
Adres 14
- B18
A18 -
Adres 13
- B19
A19 -
Adres 12
- B20
A20 -
Adres 11
- B21
A21 -
Adres 10
- B22
A22 -
Adres 9
- B23
A23 -
Adres 8
- B24
A24 -
Adres 7
- B25
A25 -
Adres 6
- B26
A26 -
Adres 5
- B27
A27 -
Adres 4
-SMEMR
-IOW
-IOR
-DACK 3
DRQ3
-DACK 1
DRQ1
-Odświeżanie
CLK MHz)
(4,77
IRQ7
IRQ6
IRO5
IRQ4
IRQ3
-DACK 2
T/C
- B28
A28 -
Adres 3
- B29
A29 -
Adres 2
- B30
A30 -
Adres 1
- B31
A31 -
Adres 0
BALE
+5Vdc
OSC MHz)
(14,3
Masa Rozszerzone 16-bitowe złącza kolidują fizycznie z niektórymi typami 8-bitowych kart, tzw. skirt, których część zachodzi na płytę główną tuż obok złącza. Aby było możliwe korzystanie z takich kart, firma IBM zostawiła dwa gniazda rozszerzające bez 16-bitowego rozszerzenia. Gniazda te są identyczne jak gniazda we wcześniejszych komputerach i mogą obsłużyć dowolne karty PC czy XT typu skirt. Obecnie nie jest to już problemem, ponieważ od lat nie produkuje się 8-bitowych kart typu skirt. 16-bitowe gniazda rozszerzające ISA zostały wprowadzone w 1984 roku. Od tej pory prawie każdą 8-bitową kartę można bez problemów wkładać do gniazd 16-bitowych. Proszę zwrócić uwagę, iż czasem rozmieszczenie elementów na płycie głównej może uniemożliwić używanie kart ISA o pełnym rozmiarze. Może się na przykład zdarzyć, że karta - choć pasuje w wolne gniazdo - nie mieści się ze względu na mocno odstający radiator procesora czy jakikolwiek inny element płyty głównej. Najbardziej narażeni na tego typu problemy są użytkownicy systemów Baby-AT oraz LPX. Jest to jeden z kolejnych argumentów przemawiających za stosowaniem systemu ATX. Typowa karta rozszerzająca AT ma następujące rozmiary: 4,8 cala szerokości (121,92 mm) 13,13 cali długości (335,5 mm) 0,5 cala grubości (12,7 mm) Karty wykorzystywane powszechnie w komputerach AT mają szerokość 4,8 cala albo 4,2 cala (starsze karty PC-XT). Szerokość kart jest istotna od momentu pojawienia się komputera XT 286. Komputer ten ma płytę AT zamkniętą w obudowie XT, dlatego wymaga kart o maksymalnej szerokości 4,2 cala. Większość producentów płyt zmniejszyła szerokość swoich kart; wielu z nich wytwarza obecnie tylko karty o szerokości 4,2 cala (lub węższe), tak wiec powinny one pracować poprawnie w komputerach obydwu typów.
Magistrale 32-bitowe Po pojawieniu się procesorów 32-bitowych upłynął pewien czas, zanim pojawił się standard 32-bitowej magistrali. Zanim pojawiły się magistrale MCA i ISA, niektórzy producenci zaczęli wytwarzać własne 32-bitowe magistrale, które były rozszerzeniem magistrali ISA. Firmowych rozwiązań magistrali było mało, jednak można je spotkać po dzień dzisiejszy. 32-bitowe rozszerzenia tych magistrali są wykorzystywane do dołączenia firmowych modułów rozszerzające pamięć albo kart graficznych. Rozwiązanie te są jednak zastrzeżone przez producentów (co oznacza, że nie są objęte standardem), w związku z tym nie są dostępne ich dane techniczne ani opisy rozmieszczenia końcówek.
Magistrala Micro Channel Magistrala ISA nie była w stanie spożytkować dodatkowej mocy 32-bitowych procesorów nowej generacji. Procesor 386DX potrafi jednorazowo przesłać 32 bity danych, a magistrala ISA mogła maksymalnie przesłać 16 bitów. Firma IBM nie zdecydowała się na ponowne rozszerzenie ISA, lecz opracowała całkiem nową magistralę. Rezultatem tego była magistrala MCA (Micro Channel Architecture). Rozwiązanie magistrali MCA całkowicie różniło się od ISA i było sporym osiągnięciem technicznym. Firma IBM nie tylko chciała, aby magistrala MCA zastąpiła stary standard ISA, lecz także wymagała lojalności od firm, które były zainteresowane zakupem licencji na nową magistralę MCA. Firmy te miały płacić nie tylko za licencję na MCA, lecz także za wykorzystywanie magistrali ISA we wcześniejszych komputerach. Takie postawienie sprawy doprowadziło do powstania konkurencyjnego rozwiązania magistrali EISA (zob. następny podrozdział omawiający magistralę EISA) i przyczyniło się do odrzucenia przez rynek magistrali MCA. Innym powodem, dla którego MCA nie została powszechnie przyjęta jako standard dla komputerów 32-bitowych, było to, że karty ISA nie działały w komputerze z magistralą MCA.
Magistrala MCA nie jest kompatybilna fizycznie ze starszymi magistralami ISA, tak więc karty opracowane dla ISA nie będą działały w komputerze z MCA. Magistrala MCA pracuje asynchronicznie w stosunku do procesora, co oznacza, że rzadziej występują problemy z synchronizacją pomiędzy poszczególnymi kartami podłączonymi do magistrali. Magistrala MCA jest znacznie prostsza w obsłudze i konfiguracji od poprzednich typów magistrali, co może potwierdzić każdy, kto konfigurował komputer z MCA. Nie ma w nim żadnych zworek ani przełączników, ani na płycie głównej, ani na kartach rozszerzających. W przypadku magistrali MCA nie trzeba mieć dyplomu inżyniera elektryka, aby prawidłowo zainstalować kartę w komputerze. Magistrala MCA obsługuje także arbitraż magistrali, dzięki czemu jest znacznie wydajniejsza niż magistrala ISA (arbitraż magistrali zaimplementowano także w magistrali EISA). W przypadku MCA dowolny moduł nadrzędny może zażądać nieblokowanego dostępu do magistrali w celu wymiany informacji z innym modułem nadrzędnym. W przesłaniu żądania pośredniczy urządzenie zwane Centralną Jednostką Kontroli Arbitrażu (ang. Central Arbitration Control Point - CACP). Urządzenie do nadzoruje rywalizację modułów nadrzędnych o magistralę i zapewnia, że żadne pojedyncze urządzenie nie przejmie na stałe kontroli nad magistralą. Każde urządzenie podłączone do magistrali ma własny kod priorytetowy, dzięki czemu zapewniona jest właściwa kolejność dostępu urządzeń do magistrali. Najwyższy priorytet posiada układ odświeżania pamięci, następnie - kontrolery DMA i moduły zainstalowane na kartach rozszerzających. Jedynym wyjątkiem od powyższej reguły jest wystąpienie przerwania NMI (non-maskable interrupt, przerwanie niemaskowalne). W takim przypadku kontrolę nad magistralą natychmiast przejmuje procesor. Specyfikacja MCA opisuje rozmiary czterech rodzajów kart rozszerzających, które są opisane w tabeli 5.1. Spotyka się cztery rodzaje gniazd rozszerzających magistrali MCA: * bitowe z rozszerzeniem wideo 16-bitowe z rozszerzeniem na układy pamięci 32-bitowe
16-bitowe *
16-
Tabela 5.1. Fizyczne rozmiary kart rozszerzających MCA Rodzaj karty
Szerokość (w calach)
Długość (w calach)
Typ 3
3,475
12,3
Typ 3 mniejszy
3,475
6,35
Typ 5
4,825
13,1
Typ 9
9,0
13,1
Szóste wydanie tej książki na CD-ROM-ie zawiera szczegółowe informacje o każdym z trzech formatów kart i komputerach, w jakich karty te można spotkać. W firmie IBM w dalszym ciągu dostępna jest dokumentacja techniczna magistrali MCA, jednak karty MCA nie są już produkowane, ponieważ obecnie są już dostępne magistrale szybsze i o większych możliwościach.
Magistrala EISA Magistrala EISA (Extended Standard Industry) została zaprezentowana we wrześniu 1988 roku jako odpowiedź na posunięcie IBM, a dokładnie na sposób, w jaki firma IBM chciała rozprowadzać licencje na magistrale MCA. Producenci sprzętu nie mieli zamiaru wydawać dodatkowych pieniędzy na wykorzystanie magistrali ISA we wcześniejszych produktach, odwrócili się więc plecami do IBM i opracowali własne rozwiązanie. Standard EISA został opracowany przez firmę Compaą i był pomyślany jako metoda przejęcia w przyszłości prac nad rozwojem magistrali PC niezależnie od IBM. Firma zdawała sobie jednak sprawę z tego, ze żaden inny producent nie podjąłby się produkcji klonów magistrali, gdyby Compaq miał na nią wyłączność. Firma udostępniła więc specyfikację EISA innym wiodącym producentom. Firmy te uformowały komitet EISA, niedochodową organizację utworzoną w celu kontroli prac nad rozwojem magistrali EISA. Od początku istnienia standardu EISA pojawiło się jednak bardzo mało kart przeznaczonych dla tej magistrali. Te, które opracowano, były głównie kartami kontrolerów tablic dyskowych (ang. disk array controllers) i kartami sieciowymi przeznaczonymi dla serwerów. Magistrala EISA posiada 32-bitowe gniazda, przez które może się odbywać transfer danych w komputerze z procesorem 386DX lub lepszym. Gniazda EISA pozwalają producentom na opracowywanie kart posiadających wiele możliwości kart MCA i jednocześnie akceptują karty starszego standardu ISA. Transfer danych przez złącze EISA jest wyraźnie szybszy w przypadku kontrolerów dysków SCSI pracujących w trybie arbitrażu magistrali. W porównaniu z 16-bitową architekturą ISA, EISA umożliwia większą rozbudowę komputera przy mniejszym zagrożeniu wystąpienia konfliktów pomiędzy urządzeniami. Złącze ISA posiada 90 dodatkowych końcówek (55 nowych sygnałów) i fizycznie nie jest większe od złącza 16-bitowej magistrali ISA. Na pierwszy rzut oka 32-bitowe gniazdo EISA wygląda tak samo jak 16-bitowe gniazdo ISA, jednak karty EISA mają dwa rzędy końcówek. Pierwszy rząd jest taki sam jak w 16-bitowych kartach ISA, drugi - cieńszy - rząd jest rozszerzeniem złącza 16-bitowego. Oznacza to, że do gniazd EISA można nadal wkładać karty ISA. Chociaż sama kompatybilność z kartami ISA nie wystarczyła do zapewnienia popularności magistrali EISA, to jednak była na tyle istotna, że została zachowana również w kolejnym standardzie VL. Karty EISA mają następujące rozmiary: 5 cali (127 mm) szerokości 13,13 cala (333,5 mm) długości 0,5 cala (12,7 mm) grubości
Magistrala EISA może przesyłać do 32 bitów danych z częstotliwością 8,33 MHz. Większość przesyłów danych wymaga minimum dwóch cykli. Możliwy jest szybszy transfer, jeżeli karta rozszerzająca przestrzega ściśle reguł czasowych. Maksymalna szerokość pasma przenoszenia magistrali EISA wynosi 33 MB/sek., co wynika z poniższych obliczeń: 8,33 MHz x 32 bity = 266,56 Mbit/sek. 266,6 Mbit/sek / 8 = 33,32 MB/sek. Odpowiednio wolniejszy byłby transfer danych pomiędzy magistralą a kartami 8- czy 16bitowymi. Należy pamiętać, że uzyskane wyniki reprezentują pewne teoretyczne maksimum. Cykle oczekiwania, przerwania i inne czynniki wynikające ze stosowanego protokołu mogą ograniczyć efektywne pasmo przenoszenia, na ogół o połowę. Na rysunku 5.7 przedstawiono znaczenie sygnałów w gnieździe magistrali EISA. Na rysunku 5.8 przedstawiono rozmieszczenie końcówek w gnieździe magistrali EISA.
Automatyczne Konfigurowanie Komputery bazujące na magistralach ISA wykorzystują automatyczne konfigurowanie w celu rozwiązywania problemów z przerwaniami karty czy adresacją. Problemy te pojawiają się często wówczas, kiedy w komputerze jest zainstalowanych kilka różnych kart. Program konfiguracyjny karty EISA sam wykrywa potencjalne konflikty i automatycznie konflguruje system tak, aby ich uniknąć. Magistrala EISA pozwala również na samodzielne usuwanie problemów, a także na konfigurowanie urządzeń za pomocą przełączników i zworek. Koncepcja ta nie jest bynajmniej oryginalnym pomysłem EISA, ponieważ magistrala MCA firmy IBM również dopuszczała konfigurowanie programowe. Inną z kolei cechą magistrali EISA jest dopuszczenie do współdzielenia przerwań, co oznacza, że kilka kart może współdzielić pojedyncze przerwanie. Funkcja ta została również zaimplementowana w kartach PCI.
Możliwość automatycznego konfigurowania komputera nie była przez długi czas dostępna w komputerach z płytą główną ISA. Pojawiła się jednak wraz z nadejściem komputerów i kart PnP. Komputery PnP zostaną omówione w końcowej części tego rozdziału, w podrozdziale „Komputery Plug and Play".
Rysunek 5.7. Gniazdo magistrali EISA
Magistrale lokalne Omawiane dotychczas magistrale zewnętrzne (ISA, MCA i EISA) mają jedną wspólną wadę: są stosunkowo wolne. Ograniczenie prędkości transferu wynika z architektury oryginalnego komputera PC, w którym magistrala zewnętrzna pracowała z tą samą częstotliwością, co magistrala lokalna procesora. W miarę pojawiania się coraz szybszych
Rysunek 5.8. Złącze karty EISA
procesorów, zwiększanie szybkości transferu magistrali zewnętrznej było jedynie rezultatem zwiększenia szerokości magistrali. Magistrala zewnętrzna w dalszym ciągu pracowała stosunkowo wolno, ponieważ musiała być dostosowana do większości istniejących już kart.
Rysunek 5.9 przedstawia konceptualny diagram magistrali w systemie komputerowym. Rysunek 5.9. Schemat magistrali w pierwotnej wersji komputera PC
Świadomość tego, że komputer pracuje wolniej, niż wynika to z jego możliwości, może być bardzo dokuczliwa dla niektórych użytkowników. Jednak wolna prędkość magistrali zewnętrznej nie jest w większości przypadków zbyt dokuczliwa. Niepotrzebna jest przecież oszałamiająca szybkość transferu danych do komunikacji z myszą lub klawiaturą - w ten sposób nie poprawi się wydajności komputera. Problem pojawia się po dołączeniu do komputera urządzeń, które wymagają dużej szybkości transferu, takich jak karty grafiki czy kontrolery dyskowe. Problem ten stał się jednak szczególnie widoczny, gdy pojawiły się graficzne systemy operacyjne, np. Windows 95. Systemy te wymagają przetwarzania tak dużych ilości danych graficznych, że magistrala zewnętrzna stała się w większości komputerów swoistym „wąskim gardłem". Innymi słowy, mały jest pożytek płynący z posiadania procesora pracującego z częstotliwością 66 MHz, jeżeli dane muszą się „przepychać" przez magistralę zewnętrzną z częstotliwością 8 MHz. Oczywistym rozwiązaniem tego problemu jest przesunięcie gniazd rozszerzających w miejsce, w którym mogłyby wykorzystywać zwiększoną szybkość magistrali procesora, jak dzieje się w przypadku pamięci cache. Schemat tego rozwiązania przedstawia rysunek 5.10.
Rysunek 5.10. Zasada działania magistrali lokalnej
Rozwiązanie to jest określane jako magistrala lokalna (ang. local bus). Urządzenia zewnętrzne (karty rozszerzające) mają teraz dostęp do tej części magistrali, do której jest podłączony procesor - do magistrali procesora. Gniazda rozszerzające magistrali lokalnej muszą się różnić fizycznie od istniejących już gniazd rozszerzających, tak aby niemożliwe było umieszczenie w nich kart przeznaczonych do współpracy z wolniejszą magistralą ISA. Interesujący jest fakt, że pierwsze modele magistrali 8- i 16-bitowej były pewną formą magistrali lokalnej. W pierwszych komputerach magistrala lokalna procesora była główną magistralą komputera, a wszystkie urządzenia do niej podłączone pracowały L pełną częstotliwością procesora. Kiedy procesory w komputerach z magistralą ISA zaczęły pracować z częstotliwością wyższą niż 8 MHz, trzeba było oddzielić magistralę główną od procesora, ponieważ karty rozszerzające, układy pamięci i inne podzespoły nie mogły nadążyć z przesyłem danych. W 1992 roku pojawiło się rozszerzenie magistrali ISA o nazwie VESA Local Bus, co oznaczało powrót do koncepcji magistrali lokalnej. W następnych latach została ona zastąpiona magistralą PCI (Peripheral Component In-terconnect), której uzupełnieniem jest szyna AGP (Accelerated Graphics Port).
Aby komputer wykorzystywał koncepcję magistrali lokalnej, nie musi wcale mieć gniazd rozszerzających magistrali lokalnej, ponieważ urządzenia podłączone do niej mogą być wbudowane bezpośrednio w płytę główną (wówczas bloczki na rysunku 5.11, oznaczające gniazda rozszerzające magistrali zewnętrznej, oznaczałyby urządzenia zawarte na płycie głównej). W ten sposób została pierwotnie zrealizowana koncepcja podłączania urządzeń do magistrali lokalnej procesora.
Komputery zbudowane w oparciu o magistralę lokalną są szczególnie popularne wśród użytkowników systemów operacyjnych Windows i OS/2, ponieważ ich gniazda rozszerzające są wykorzystywane przez specjalne 32-bitowe karty akceleratorów graficznych, które znacznie przyśpieszają operacje odmalowania obrazu. Operacje te są często wykorzystywane w tych graficznych systemach operacyjnych. Wydajność systemów Windows i OS/2 znacznie spada, gdy nawet najlepsza karta VGA jest podłączona do „wąskiego gardła", jakim jest magistrala ISA czy EISA.
Magistrala lokalna VESA Magistrala lokalna VESA była najpopularniejszym rodzajem magistrali od momentu jej debiutu w sierpniu 1992, aż do roku 1994. Została opracowana przez komitet VESA, niedochodową organizację założoną przez firmę NEC w celu prowadzenia prac nad rozwojem technologii wytwarzania monitorów i magistrali. Firma NEC postąpiła podobnie jak założyciel komitetu EISA: po wykonaniu większości prac związanych z opracowaniem magistrali VL-Bus (tak magistrala ta została później nazwana) przekazała dalsze prace komitetowi VESA. Na początku magistrala lokalna była wykorzystywana przede wszystkim przez karty graficzne. Głównym priorytetem firmy NEC było zwiększenie wydajności operacji graficznych, co pomogłoby firmie w sprzedaży wysokiej klasy monitorów, których była producentem, oraz własnych komputerów PC. Przed rokiem 1991 niska wydajność operacji graficznych była istnym „wąskim gardłem" w większości komputerów PC. Organizacja VESA (Video Electronics Standards Association) opracowała standard znany jako VESA Local Bus lub w skrócie VL-Bus. Była to jedna z pierwszych implementacji magistrali lokalnej, której gniazda rozszerzające umożliwiają bezpośredni dostęp do pamięci komputera z szybkością pracy samego procesora. Jednorazowo przez magistralę mogą być przesłane 32 bity informacji, dzięki czemu możliwy jest transfer danych pomiędzy procesorem a kartą graficzną lub dyskiem twardym z wykorzystaniem pełnej szerokości 32bitowej magistrali danych procesora 486. Maksymalna przepustowość magistrali VL-Bus wynosi od 128 do 132 MB/sek. Magistrala lokalna przyczyniła się do usunięcia wąskiego gardła komputera, które istniało we wcześniejszych rozwiązaniach magistrali. Ponadto magistrala VL-Bus umożliwia producentom kart kontrolerów dysków twardych ominięcie innego tradycyjnego już wąskiego gardła komputera, jakim jest przesył danych pomiędzy procesorem a dyskiem twardym. Przeciętny dysk z 16-bitowym interfejsem IDE może osiągnąć wydajność rzędu 5 MB/sek., podczas gdy adaptery VL-Bus dysków twardych IDE umożliwiają osiągniecie szybkości transferu rzędu 8 MB/sek. Najczęściej przepustowość kontrolerów dysków dołączonych do magistrali VL-Bus będzie niższa niż 8 MB/sek., jednak pomimo to magistrala VL-Bus jest dużym krokiem naprzód, jeżeli chodzi o wydajność dysków twardych. Oprócz swoich dobrodziejstw magistrala VL-Bus (a także inne typy magistrali lokalnej) ma kilka wad, które opisałem poniżej: Zależność od procesora 486. Wrodzoną cechą magistrali VL-Bus jest przystosowanie • jej do współpracy z magistralą procesora 486, która różni się znacznie od magistrali procesorów Pentium (i prawdopodobnie od procesorów, które pojawią się w przyszłości). Nie opracowano magistrali VL-Bus, która pracowałaby z pełną prędkością procesora Pentium, aczkolwiek możliwe są różnego rodzaju substytuty, polegające na obniżeniu szybkości czy wprowadzeniu tzw. mostów (ang. bus bridges). Niestety, rezultatem takiego postępowania jest spadek wydajności komputera. Niektóre komputery są wyposażone zarówno w gniazda rozszerzające PCI, jak i VL-Bus, ale takie kompromisy w projektowaniu przyczyniają się często do obniżenia wydajności.
* Ograniczenia w szybkości transferu. Magistrala VL-Bus teoretycznie umożliwia transfer danych z częstotliwością 66 MHz. Ale charakterystyka elektryczna złącza VL-Bus obniża tę częstotliwość do 40-50 MHz. W praktyce problemy pojawiają się już przy pracy magistrali z częstotliwością przekraczającą 33 MHz, dlatego częstotliwość tę przyjęto jako górny limit. W komputerach, w których magistrala lokalna procesora pracuje z wyższą częstotliwością, trzeba buforować dane, spowalniać zegar magistrali albo wstawiać cykle oczekiwania. Należy podkreślić, że jeżeli nawet procesor posiada układ zwielokrotniania częstotliwości zegara (np. podwajają), to magistrala VL-Bus w dalszym ciągu jest taktowana zewnętrznym sygnałem zegarowym procesora. * Ograniczenia elektryczne. Magistralę lokalną procesora obowiązują bardzo ścisłe reguły czasowe, które mogą być różne dla różnych procesorów. Ograniczenia te wprowadzono, aby ograniczyć obciążenie elektryczne magistrali. Jedynymi elementami pierwotnie przeznaczonymi do podłączenia do magistrali były zewnętrzna pamięć cache i układy kontrolera magistrali. Jeżeli podłączy się jeszcze jakieś dodatkowe układy, to wzrośnie obciążenie magistrali. Jeżeli magistrala lokalna nie zostanie prawidłowo zaprojektowana, to wzrost jej obciążenia może spowodować problemy z utratą integralności przesyłanych danych czy brak synchronizacji pomiędzy procesorem a kartami rozszerzającymi. * Ograniczona liczba kart. W zależności od obciążenia elektrycznego ograniczona zostaje liczba kart rozszerzających. Pomimo że specyfikacja VL-Bus dopuszcza korzystanie z trzech kart rozszerzających, może to być osiągnięte tylko wtedy, kiedy częstotliwość zegara nie przekroczy 40 MHz - w innym razie trzeba zmniejszyć obciążenie magistrali. Jeżeli zwiększy się obciążenie elektryczne magistrali i zwiększy się częstotliwość zegara magistrali, to tym samym zmniejszy się liczba możliwych do podłączenia kart. Przy częstotliwości 50 MHz może pracować tylko jedna karta, przy czym magistrala będzie bardzo obciążona. W praktyce stanie się niemożliwe osiągnięcie tej granicy bez pojawienia się problemów. Magistrala VL-Bus wydaje się nie do końca przemyślanym pomysłem inżynierskim. Pomysł był prosty - końcówki procesora 486 podłączyć do wyprowadzeń gniazda rozszerzającego. Innymi słowy, magistrala VL-Bus jest po prostu „gołą" magistralą procesora 486. Rozwiązanie to przyczyniło się do znacznego obniżenia kosztów, ponieważ zbędne były dodatkowe kontrolery magistrali czy układy interfejsów. Producent płyty głównej mógł niewielkim nakładem finansowym dodać do swojej płyty 486 gniazda rozszerzające magistrali VL-Bus. Oto przyczyna popularności magistrali VL-Bus, obecnej praktycznie w każdym komputerze 486. Niestety, procesor 486 nie jest przystosowany do współpracy z większą ilością układów podłączonych do wyprowadzeń jego magistrali. Pojawiają się wówczas problemy L niewłaściwym przebiegiem czasowym sygnałów, spowodowanym pojemnością wnoszoną przez obwody elektroniczne kart. Ponieważ magistrala VL-Bus pracuje z tą samą prędkością co magistrala procesora, przy różnych prędkościach procesora różne są szybkości pracy magistrali i trudno jest tu osiągnąć pełną kompatybilność. Chociaż magistrala VL-Bus może być zaadaptowana do współpracy z różnymi procesorami 386, a nawet z Pentium włącznie, to jednak została ona zaprojektowana do współpracy 7. procesorem 486 i w takiej konfiguracji sprawuje się najlepiej. Pomimo niskiej ceny, magistrala VL-Bus szybko popadła w niełaskę producentów po pojawieniu się na rynku nowej magistrali PCI (Peripherial Component Interconnect). Nigdy nie była możliwa współpraca VL-Bus z procesorem Pentium, obecnie zaniechano już dalszego rozwoju tej magistrali. Nie polecałbym obecnie nikomu zakupu płyt czy kart zbudowanych w oparciu o magistralę VL-Bus. W przypadku rozbudowy starszego komputera, magistrala VL-Bus może być dobrym rozwiązaniem, użytecznym zwłaszcza do szybkiego przetwarzania danych.
Fizycznie złącze magistrali VL-Bus jest rozszerzeniem złączy podstawowej magistrali komputera. Jeżeli w komputerze znajduje się magistrala ISA, to VL-Bus jest rozszerzeniem 16-bitowych gniazd tej magistrali. Z kolei w komputerze z magistralą EISA lub MCA gniazda VL-Bus stanowią rozszerzenie macierzystych gniazd. Rysunek 5.11 pokazuje przykładową konfigurację złącza VL-Bus w komputerze z magistralą ISA. Rozszerzenie magistrali VESA ma 112 styków i wykorzystuje to samo fizyczne złącze, co magistrala MCA. Magistrala VL-Bus uzupełnia złącze magistrali o dodatkowe 116 końcówek. W tabeli 5.2 zebrano znaczenie sygnałów części VL-Bus całego złącza. (W przypadku dwóch różnych znaczeń danej końcówki druga możliwość oznacza pracę karty w trybie przesyłu 64bitowego). Tabela 5.2. Gniazdo magistrali VL-Bus Końcówka
Sygnał
Końcówka
Sygnał
Bl
Dane 0
Al
Dane 1
B2
Dane 2
A2
Dane 3
B3
Dane 4
A3
Masa
B4
Dane 6
A4
Dane 5
B5
Dane 8
A5
Dane 7
B6
Masa
A6
Dane 9
B7
Dane 10
A7
Dane 11
B8
Dane 12
A8
Dane 13
B9
vcc
A9
Dane 15
B10
Dane 14
A10
Masa
B11
Dane 16
A11
Dane 17
B12
Dane 18
A12
VCC
B13
Dane 20
A13
Dane 19
B14
Masa
A14
Dane 21
B15
Dane 22
A15
Dane 23
B16
Dane 24
A16
Dane 25
B17
Dane 26
A17
Masa
B18
Dane 28
A18
Dane 27
B19
Dane 30
A19
Dane 29
B20
VCC
A20
Dane 31
B21
Adres31
A21
Adres30
B22
Masa
A22
Adres28
B23
Adres29
A23
Adres26
B24
Adres27
A24
Masa
B25
Adres25
A25
Adres24
B26
Adres23
A26
Adres22
B27
Adres21
A27
vcc
B28
Adres 19
A28
Adres20
B29
Masa
A29
Adres 18
B30
Adres 17
A30
Adres 16
B31
Adres 15
A31
Adres 14
B32
VCC
A32
Adres 12
B33
Adres 13
A33
Adres 10
B34
Adres 11
A34
Adres 8
B35
Adres9
A35
Masa
B36
Adres7
A36
Adres 6
B37
Adres 5
A37
Adres4
B38
Masa
A38
Write Back
B39
Adres3
A39
Byte Enable 0 lub 4
B40
Adres2
A40
VCC
B41
nie wykorzystane LBS64#
B42
Reset
B43
Data/Code Status
B44
Memory I/O Status lub Dane 32
B45
lub A41
Byte Enable 1 lub 5
A42
Byte Enable 2 lub 6
A43
A44
Write/Read Status lub A45 Data 32
Masa
Byte Enable 3 lub 7
Adres Data Strobe
B46
Access Key
A46
Access Key
B47
Access Key
A47
Access Key
B48
Ready Rerurn
A48
Local Ready
B49
Masa
A49
Local Device
B50
IRQ9
A50
Local Request
B51
Burst Ready
A51
Masa
B52
Burst Last
B53
ID0
B54
ID1
A54
ID2
B55
Masa
A55
ID3
B56
Local Clock
A56
ID4 lub ACK64#
B57
VCC
A57
nie wykorzystane
B58
Local Bus Size 16
A58
A52
Local Bus Grant A53
VCC
Loc/Ext Addres Data Strobe
Rysunek 5.12 przedstawia rozmieszczenie końcówek w gnieździe magistrali VL-Bus.
Magistrala PCI Na początku 1992 roku firma Intel stanęła na czele nowego konsorcjum. Cele tej grupy były identyczne z celami grupy VESA - chodziło o opracowanie nowej magistrali PC. Grupa PCI Special Interest Group powstała w celu przezwyciężenia słabych punktów magistrali ISA i EISA poprzez opracowanie magistrali nowego typu. Specyfikacja PCI (Peripherial Component Interconnect) została ogłoszona w czerwcu 1992 i uzupełniona w kwietniu 1993 roku. Koncepcja PCI polegała na umieszczeniu magistrali pomiędzy magistralą lokalną procesora a magistralą zewnętrzną, zrealizowano to za pomocą tzw. mostów (bridges). Zamiast oprzeć nową magistralę bezpośrednio na magistrali procesora (tak jak w przypadku magistrali VL-Bus), której charakterystykę elektryczną jest jednak bardzo łatwo naruszyć, opracowano nowy układ kontrolera magistrali, co pokazuje rysunek 5.13. Magistrala PCI jest często określana żartobliwie jako antresola, ponieważ uzupełnia zbiór magistrali komputera o dodatkową warstwę. Magistrala PCI omija magistralę zewnętrzną komputera i pracuje szybciej niż ona, ponieważ w pełni wykorzystuje przepustowość magistrali lokalnej procesora. Komputery z magistralą PCI pojawiły się w połowie roku 1993 i od tej pory magistrala ta jest podstawowym rozwiązaniem dla komputerów wysokiej klasy (ang. high-end systems).
Rysunek 5.11. Przykładowe usytuowanie gniazd magistrali VL-Bus w komputerze z magistralą ISA Rysunek 5.12. Złącze karty VL-Hus
Magistrala PCI przenosi dane z częstotliwością 33 MHz, wykorzystując pełną szerokość magistrali danych procesora. Kiedy do magistrali podłączony jest procesor 32-bitowy, to szerokość pasma przenoszenia magistrali wynosi 132 MB na sekundę, co wynika z poniższych równań. 33 MHz x 32 bity = l 056 Mbit/sek. l 056 Mbit/sek. / 8 bitów(bajt) = 132 MB/sek.
Rysunek 5.13. Schemat konceptualny magistrali PCI
Jeżeli magistrala będzie w przyszłości współpracować z procesorem 64-bitowym, to szerokość pasma przenoszenia się podwoi, co oznacza, że będzie można przenosić dane z szybkością 264 MB/sek. Rzeczywista prędkość transferu będzie oczywiście niższa, ale i tak o wiele większa niż w przypadku jakiegokolwiek innego rozwiązania dostępnego obecnie na rynku - prócz magistrali AGP. Szybszy transfer osiągnięto m.in. dzięki temu, że magistrala PCI i magistrala lokalna procesora mogą pracować jednocześnie -magistrala PCI nie zastępuje magistrali procesora. Procesor może zajmować się przetwarzaniem danych w zewnętrznej pamięci cache, podczas gdy magistrala PCI zajmuje się przesyłaniem informacji pomiędzy innymi modułami komputera -jest to największe dobrodziejstwo płynące ze stosowania magistrali PCI. Karty rozszerzające PCI wykorzystują własne specyficzne złącze. Złącze to może być łatwo zlokalizowane wewnątrz komputera, zazwyczaj jest usytuowane w pobliżu złącza magistrali zewnętrznej: ISA, MCA albo EISA. Taką przykładową konfigurację przedstawiono na rysunku 5.14. Karty PCI mogą mieć taki sam rozmiar jak karty wkładane do gniazd magistrali zewnętrznej. Specyfikacja PCI określa trzy konfiguracje płyty głównej, z których każda jest przystosowana do specyficznego typu komputera z odmiennymi wymaganiami napięciowymi. Płyta główna zasilana napięciem 5 V jest przeznaczona dla komputerów stacjonarnych, płyta zasilana 3,3 V - dla komputerów przenośnych, a specyfikacja uniwersalna obejmuje płyty główne i karty rozszerzające pracujące w obydwu rodzajach komputerów. W tabeli 5.3 zebrano znaczenie poszczególnych sygnałów, a rysunek 5.15 przedstawia rozmieszczenie końcówek w gnieździe magistrali 5 V. W tabeli 5.4 zebrano znaczenie poszczególnych sygnałów, a rysunek 5.16 przedstawia rozmieszczenie końcówek w gnieździe magistrali 3,3 V. W tabeli 5.5 zebrano znaczenie poszczególnych sygnałów, a na rysunku 5.17 przedstawione jest rozmieszczenie końcówek w gnieździe uniwersalnej magistrali PCI. Dla każdego typu magistrali podane są warianty 32- i 64-bitowe.
Rysunek 5.14. Możliwe usytuowanie gniazd PCI w stosunku do gniazd ISA czy EISA
Jeżeli karta PCI jest 32-bitowa, to wykorzystuje tylko końcówki od Bl/Al do B62/A62. Końcówki B63/A63 do B94/A94 są wykorzystywane tylko wtedy, gdy karta jest 64-bitowa. Tabela 5.3. Sygnały złącza magistrali PCI 5V
Końcówka Sygnał
Końcówka
Sygnał
Bl
-12V
Al
Test Reset
B2
Test Clock
A2
+ 12V
B3
GND
A3
Test Mode Select
B4
Test Data Output A4
Test Data Input
B5
+5V
A5
+5 V
B6
+5 V
A6
Interrupt A
B7
Interrupt B
A7
Interrupt C
B8
Interrupt D
A8
+5V
B9
PRSNT1#
A9
zarezerwowane
B10
zarezerwowane
A10
+5 V
B11
PRSNT2#
A11
zarezerwowane
B12
GND
A12
GND
171
Tabela 5.3. cd. Sygnały złącza magistrali PCI 5V Końcówka Sygnał Końcówka B13 GND A13 B14 zarezerwowane A14 B15 GND A15 B16 Clock A16 B17 GND A17 B18 Request At8 B19 +5VI/O A19 B20 Adres31 A20 B21 Adres29 A21 B22 GND A22 B23 Adres27 A23 B24 Adres25 A24 B25 +3,3V A25 B26 C/BE3 A26 B27 Adres23 A27 B28 GND A28 B29 Adres21 A29 B30 Adres 1 9 A30 B31 +3,3 V A31 B32 Adres 17 A32 B33 C/BE A33 B34 GND A34
Sygnał GND zarezerwowane Reset +5VI/0 Grant GND zarezerwowane Adres30 +3.3V Adres28 Adres26 GND Adres24 InitDeviceSelect +3,3V Adres22 Adres20 GND Adres 18 Adres 16 +3,3V CycteFrame
B35 B36 B37 B38 B39 B40 B41 B42 B43
GND Target Ready GND Stop +3,3 V Snoop Done Snoob Backoff GND PAR
Initiator Ready +3,3V Device Select GND Lock Parity Error +3,3V System Error +3,3 V
A35 A36 A37 A38 A39 A40 A41 A42 A43
172
Tabela 5.3. cd. Sygnały złącza magistrali PCI 5V Końcówka Sygnał Końcówka B44 C/B E 1 A44 B45 Adres 14 A45 B46 GND A46 B47 Adres 12 A47 B48 Adres 10 A48 B49 GND A49 B50 Access Key A50 B51 Access Key A51 B52 Adres8 A52 B53 Adres7 A53 B54 +3.3 V A54 B55 Adres5 A55 B56 Adres3 A56 B57 GND A57 B58 Adres1 AS 8 B59 +5 V I/O A59 B60 Acknowledgement 64-bit A60 B61 +5 V A61 B62 +5 V A62 Access Key B63 zarezerwowane A63 B64 gnd A64 B65 C/BE 6 A65 A66 B66 C/BE 4 A66 B67 B68 B69 B70 B71 B72 B73 B74
GND Adres63 Adres61 +5VI/O Adres59 Adres57 GND Adres55
A67 A68 A69 A70 A71 A72 A73 A74
Sygnał Adres 15 +3.3 V Adres 13 Adres 11 GND Adres9 Access Key Access Key C/BEO +3,3 V Adres6 Adres4 GND Adres2 Adres0 +5 V I/O Request 64-bit +5V +5 V GND C/BE7 C/BE5 +5VI/O Parity 64-bit Adres62 GND Adres60 Adres58 GND Adres56 Adres54
173
Tabeła 5.3. cd. Sygnały złącza magistrali PCI Końcówka Sygnał Końcówka Sygnał B75 Adres53 A75 B76 GND A76 B77 Adres51 A77 B78 Adres49 A78 B79 +5 V I/0 A79 B80 Adres47 A80 B81 Adres45 A81 B82 GND A82 B83 Adres43 A83 B84 Adres41 A84 B85 GND A85 B86 Adres39 A86 B87 Adres37 A87 B88 +5 V I/0 A88 B89 Adres35 A89 B90 Adres33 A90 B91 GND A91 B92 zarezerwowane A92 zarezerwowane zarezerwowane B93 A93 zarezerwowane GND B94 A94
Sygnał +5VI/O Adres52 Adres50 GND Adres48 Adres46 GND Adres44 Adres42 +5V I/0 Adres40 Adres38 GND Adres36 Adres34 GND Adres32 zarezerwowane GND zarezerwowane
174
Tabeła 5.4. Sygnały złącza magistrali PCI 3.3V Końcówka Sygnał Końcówka Bl 2V AI B2 Test Clock A2 B3 GND A3 B4 Test Data Output A4 B5 +5 V A5 B6 +5 V A6 B7 Interrupt B A7 B8 Interrupt D A8 B9 PRSNT1# A9 B10 Zarezerwowane A10 B1l PRSNT2# A1l B12 Access Key A12 B13 Access Key A13 B14 Zarezerwowane A14 B15 GND A15 B16 C1ock A16 B17 GND A17 B18 Request A18 B19 +3,3 V I/O A19 B20 Adres31 A20 B21 Adres29 A21 B22 GND A22 B23 Adres27 A23 B24 Adres25 A24 B25 +3.3 V A25 B26 C/BE3 A26 B27 Adres23 A27 B28 GND A28 B29 Adres21 A29 B30 Adres 1 9 A30 B31 +3.3 V A31 B32 Adres 1 7 A32
Sygnał Test Reset + 12V Test Mode Select Test Data Input +5 V Interrupt A Interrupt C +5V Zarezerwowane +3.3 V Zarezerwowane Access Key Access Key Zarezerwowane Reset +3,3 V Grant GND Zarezerwowane Adres30 +3.3 V Adres28 Adres26 GND Adres24 Init Device Select +3,3 V Adres22 Adres20 GND Adres 18 Adres 16
175
Tabeła 5.4. Sygnały złącza magistrali PCI 3.3V Końcówka Sygnał Końcówka A33 B33 C/B E A34 B34 GND B35 Initiator Ready A35 B36 +3.3 V A36 837 Device Select A37 B38 GND A38 B39 Lock A39 B40 Parity Error A40 B41 +3.3 V A41 B42 System Error A42 B43 +3,3 V A43 B44 C/BE 1 A44 B45 Adres 14 A45 B46 GND A46 B47 Adres 12 A47 B48 Adres 10 A48 B49 GND A49 B50 GND A50 B51 GND A51 B52 Adres8 A52 B53 Adres7 A53 B54 +3,3 V A54 B55 Adres5 A55 B56 Adres3 A56 B57 GND A57 B58 Adres1 A58 B59 +3.3 V I/0 A59 B60 Acknowledgement 64-bit A60 B61 +5V A61 B62 A62 +5V Access Key B63 Zarezerwowane A63
Sygnał +3.3 V Cycle Frame GND Target Ready GND Stop +3.3 V Snoop Done Snoob Backoff GND PAR Adres 15 +3,3 V Adres 13 Adres 11 GND Adres9 GND GND C/BEO +3,3 V Adres6 Adres4 GND Adres2 Adres0 +3,3 V Request 64-bit +5 V +5 V Access Key GND
176
Tabela 5.4.cd. Sygnały złącza magistrali PCI 3.3V Końcówka Sygnał Końcówka B64 gnd A64 B65 C/BE6 A65 B66 C/BE4 A66 B67 GND A67 B68 Adres63 A68 B69 Adres6l A69 B70 +3.3 V I/O A70 B7 1 Adres59 A71 B72 Adres57 A72 B73 GND A73 B74 Adres55 A74 B75 Adres53 A75 B76 GND A76 B77 Adres5 1 A77 B78 Adres49 A78 B79 +3,3 V 1/0 A79 B80 Adres47 A80 B81 Adres45 A8t B82 GND A82 B83 Adres43 A83 B84 Adres4i A84 B85 GND A85 B86 Adres39 A86 B87 Adres37 A87 B88 +3.3 V I/O A88 B89 Adres35 A89 B90 Adres33 A90 B91 GND A91 B92 zarezerwowane A92 B93 zarezerwowane A93 B94 GND A94
Sygnał C/BE7 C/BE5 +3,3 V Parity 64-bit Adres62 GND Adres60 Adres58 GND Adres56 Adres54 +3.3 V Adres52 Adres50 GND Adres48 Adres46 GND Adres44 Adres42 +3,3 V Adres40 Adres38 GND Adres36 Adres34 GND Adres32 zarezerwowane GND zarezerwowane
177
Tabela 5.5.cd. Sygnały złącza uniwersalnej magistrali PCI Końcówka Sygnał Końcówka Sygnał B1 -12V A1 Test Reset B2 Test Clock A2 + 12V B3 GND A3 Test Mode Select B4 Test Data Output A4 Test Data Input B5 +5V A5 +5V B6 +5 V A6 Interrupt A B7 Interrupt B A7 Interrupt C B8 Interrupt D A8 +5 V B9 PRSNT1# A9 Zarezerwowane B10 Zarezerwowane A10 +V I/O B11 PRSNT2# A11 Zarezerwowane B12 Access Key A12 Access Key B13 Access Key A13 Access Key B14 Zarezerwowane A14 Zarezerwowane B15 GND A15 Reset B16 Clock A16 +VI/O B17 GND A17 Grant B18 Request A18 GND B19 +VI/O A19 Zarezerwowane B20 Adres31 A20 Adres30
178
Tabela 5.5.cd. Sygnały złącza uniwersalnej magistrali PCI Końcówka Sygnał Końcówka Sygnał B21 Adres29 A21 +3,3 V G N D A22 Adres28 B22 Adres27 A23 Adres26 B23 B24 Adres25 A24 GND B25 +3,3 V A25 Adres24 B26 C/BE 3 A26 Init Device Select B27 B28 B29 B30 B31 B32 B33 B34 B35 B36 B37 B38 B39 B40 B41 B42 B43 B44 B45 B46 B47 B48 B49 B50 B51 B52
Adres23 GND Adres21 Adres 19 +3,3 V Adres 17 C/BE GND tntttator Ready +3,3 V Device Setect GND Lock Parity Error +3,3 V System Error +3,3 V C/BE 1 Adres 14 GND Adres 12 Adres 10 GND Access Key Access Key Adres8
A27 A28 A29 A30 A31 A32 A33 A34 A35 A36 A37 A38 A39 A40 A41 A42 A43 A44 A45 A46 A47 A48 A49 A50 A51 A52
+3,3 V Adres22 Adres20 GND Adres 18 Adres 16 +3,3 V Cycle Frame GND Target Ready GND Stop +3,3 V Snoop Done Snoob Backoff GND PAR Adres 15 +3,3 V Adres 13 Adres 1 1 GND Adres9 Access key Access key C/BE0
179
Tabela 5.5.cd. Sygnały złącza uniwersalnej magistrali PCI Końcówka Sygnał Końcówka Sygnał B53 Adres7 A53 +3,3 V B54 +3,3 V A54 Adres6 B55 Adres5 A55 Adres4 B56 Adres3 A56 GND B57 GND A57 Adres2 B58 Adres 1 A58 Adres0 B59 +VI/O A59 +VI/O B60 Acknowledgement 64-bit A60 Request 64-bit B61 +5V A61 +5V B62 A62 +5V +5V Access Key Access Key B63 zarezerwowane A63 GND B64 gnd A64 C/BE7 B65 C/BE6 A65 C/BE5 B66 C/BE4 A66 +VI/O B67 GND A67 Parity 64-bit B68 Adres63 A68 Adres62 B69 Adres61 A69 GND B70 +VI/O A70 Adres60 B71 Adres59 A71 Adres58 B72 Adres57 A72 GND B73 GND A73 Adres56 B74 Adres55 A74 Adres54 B75 Adres53 A75 +VI/O B76 GND A76 Adres52 B77 AdresSt A77 AdresSO B78 Adres49 A78 GND B79 +VI/O A79 Adres48 B80 Adres47 A80 Adres46 B81 Adres45 A81 GND B82 GND A82 Adres44 B83 Adres43 A83 Adres42
180
Tabela 5.5.cd. Sygnały złącza uniwersalnej magistrali PCI Końcówka Sygnał Końcówka Sygnał B84 Adres41 A84 +V I/O B85 GND A83 Adres40 B86 Adres39 A86 Adres38 B87 Adres37 A87 GND B88 +V I/O A88 Adres36 B89 Adres35 A89 Adres34 B90 Adres33 A90 GND B91 GND A91 Adres32 B92 zarezerwowane A92 zarezerwowane B93
zarezerwowane
A93
GND
B94
GND
A94
zarezerwowane
Należy zauważyć, że specyfikacja uniwersatnego złącza PCI łączy w sobie cechy specyfikacji 5 V i 3,3 V. Końcówki o napięciu różnym są oznaczone jako V I/O. Są to specjaine styki napięciowe, które wyprowadzono w cetu zdefiniowania połączeń sygnałowych PCI. Istotną cechą magistrali PCI jest to, że została opracowana jako zgodna ze specyfikacją PnP firmy Intet. Oznacza to, że karty PCI pozbawione są zworek i przełączników i są konfigurowane programowo. Komputery PnP potrafią samodzietnie skonfigurować karty PCI, podczas gdy płyty z gniazdami ISA, które nie są wykonane jako zgodne ze specyfikacją PnP, konfigurują swoje karty poprzez oprogramowanie, które jest częścią oprogramowania konfiguracyjnego komputera zapisanego w pamięci CMOS. Począwszy od roku 1995 większość komputerów PC jest wyposażona w BIOS PnP, który umożtiwia automatyczną konfigurację urządzeń PnP.
Informację online na temat magistrati PCI można znateźć na internetowej stronie http://www.us.pc.ibm.com/inforbrf/ibpci.html
181
Wewnętrzne przerwania PCI W celu uwzględniania potrzeb podłączonych do niej kart, magistrala PCI posiada własny, wewnętrzny system przerwań. Aby zapobiec myleniu tych przerwań z przerwaniami standardowymi, zazwyczaj nazywa się je „#A", „#B", „#C" oraz „#D", choć są one również nazywane ,.#!", „#2", ,.#3", „#4". Użytkownik komputera właściwie nie ma z nimi żadnej styczności, poza ustawieniami magistrali PCI w BlOS-ie, gdzie może za ich pomocą określić sposób pracy kart PCI. W zależności od potrzeb kart rozszerzeń, przerwania te są mapowane do przerwań systemowych, najczęściej jako IRQ od 9 do 12. Gniazda PCI w większości komputerów mogą być mapowane do co najmniej czterech systemowych IRQ. W komputerach, które posiadają więcej niż cztery gniazda PCI lub też cztery gniazda PCI i kontroler USB (również korzystający z magistrali PCI), przerwanie IRQ dzieti więcej urządzeń PCI. Patrz „USB (Universa) Seria! Bus)", str. 669 Jeśli posiadasz Windows 95 OEM SR2 (OEM Service Release 2) lub Windows 98, możesz zauważyć dodatkowe pozycje w ustawieniach urządzeń PCI. Każde urządzenie korzystające z tej magistrali może mieć dodatkową opcję o nazwie „IRQ Hołder for PCI Ste-ering". Sterowanie przerwaniami IRQ jest częścią systemu Plug-and-P)ay, dzięki której system operacyjny sprawuje kontrolę nad przydzielaniem przerwań IRQ urządzeniom, co pozwala na uniknięcie konfliktów związanych z zasobami systemu. Korzystanie z danego 1RQ przez więcej niż jedno urządzenie nie oznacza od razu konfliktu zasobów. PCI udostępnia pełny bus mastering oraz umożliwia kontrolowanie dostępu do magistrali poprzez układy płyty głównej. Architektura PCI dopuszcza jednoczesny bus mastering wielu urządzeń, podczas którego układy kontroli dostępu dbają, by żadne z urządzeń (łącznie z procesorem!) nie zablokowało innego. Każde urządzenie może wykorzystać dla siebie pełną przepustowość magistrali, pod warunkiem jednak, że w danej chwiti nie są nią przesyłane inne dane. Działanie magistrali PCI można porównać do istniejącej w komputerze niewielkiej sieci lokalnej, w której wiele urządzeń porozumiewa się ze sobą oraz dzieli nadzorowany przez układy płyty głównej, ten sam kanał komunikacji. AGP (Accełerated Graphics Port) W przeznaczonych dła wymagających użytkowników, zaawansowanych technologicznie komputerach, w których wszystkie dane karty graficznej, twardych dysków oraz urządzeń peryferyjnych, dzieliły między sobą przepustowość tej samej magistrałi, magistrala PCI, podobnie jak poprzedzająca ją ISA, zaczynała być przeciążona. Aby zapobiec coraz bardziej prawdopodobnemu nasyceniu magistrali PCI danymi karty graficznej, Intel zaprojektował nowy, przeznaczony specjalnie dla kart graficznych interfejs, nazwany Interfejs AGP został wprowadzony w odpowiedzi na gwałtownie narastające zapotrzebowanie na coraz szybsze karty graficzne. W miarę ewolucji programowania i wkraczania komputerów na niezbadane dotąd obszary, takie jak akceleracja 3D czy też odtwarzanie fiłmów, zarówno procesor, jak i karty graficzne musiały przetwarzać coraz więcej i więcej
182
danych. Podczas korzystania z wymagających apiikacji, magistrała PCI zaczęła osiągać granice przepustowości, szczególnie w chwilach, gdy musiała ją dzielić również pomiędzy korzystające z niej inne urządzenia peryferyjne oraz twarde dyski. Idea przyświecająca twórcom AGP była prosta: stworzyć szybszy, dedykowany interfejs pomiędzy kartą graficzną a procesorem. Dzięki zastosowaniu interfejsu między tytko dwoma urządzeniami osiągnięto trzy podstawowe korzyści: łatwiejszą implementacje, prostszy sposób uzyskania lepszej wydajności oraz możliwość większego dostosowania portu AGP do potrzeb kart graficznych. Interfejs AGP nie jest postrzegany jako magistrata, łecz jako port, ponieważ dotyczy tyłko dwóch urządzeń (procesora i karty graficznej) i nie jest rozszerzalny. Jedną z największych korzyści zastosowania AGP jest odizołowanie karty graficznej od reszty komputera, dzięki czemu nie musi ona dzielić przepustowości magistrati z innymi urządzeniami. Dzięki odciążeniu magistrali PCI, a co za tym idzie, zwiększeniu się jej przepustowości, inne urządzenia również odnoszą korzyści z przeniesienia karty graficznej do portu AGP. AGP to nowa technologia; została wprowadzona na rynek w trzecim kwartale 1997 roku. Pierwszym chipsetem obsługującym tę technologię był, przeznaczony dia procesorów Pentium, Inteł 440LX. Interfejs AGP jest pod wieloma względami podobny do magistrali PCI. Gniazdo AGP ma kształt i rozmiar podobny do gniazd PCI, ale jest położone w większej niż one odległości od krawędzi płyty głównej. Specyfikacja AGP bazuje na specyfikacji PCI 2.1, której częścią jest oferująca wysoką wydajność, nigdy nie zaim-plementowana w magistrali PCI, częstotliwość pracy 66 MHz. Poza posiadaniem jednego gniazda rozszerzeń dla kart graficznych AGP i często o jednego mniej gniazda PCI, płyty główne AGP nie różnią się niczym szczególnym od standardowych płyt głównych. Magistrala AGP, podobnie jak magistrala PCI, jest 32-bitowa, ale w odróżnieniu od magistrali PCI, nie działa z połową lub 1/3 częstotliwości taktowania pamięci systemowej, lecz z częstotliwością 66 MHz lub podwojoną częstotliwością magistrali PCI. To oczywiście natychmiast podwoiło przepustowość portu; AGP w najwolniejszym trybie umożliwia transfer 266 MB/s. Innym czynnikiem dodatnio wpływającym na wydajność kart AGP jest brak konieczności dzielenia przepustowości portu jej z innymi urządzeniami. W celu zwiększenia przepustowości AGP nie tylko zdwojono częstotliwość pracy magistrali, ale i zdefiniowano tryb 2x (a w przyszłości 4x), który przy tej samej częstotliwości taktowania umożliwia przesyłanie dwa razy większej ilości danych. W trybie 2x dane są przesyłane na wznoszącym się i opadającym zboczu sygnału - w standardowym trybie informacje są przesyłane tylko raz, podczas jednego cyklu zegara; tryb 2x umożliwia wysyłanie ich dwa razy. Możesz sobie wyobrazić, że dane w trybie lx są przesyłane jakby za pośrednictwem bębna - każde uderzenie to jeden bit. W trybie 2x dane są wysyłane wraz z każdą zmianą położenia powierzchni bębna - pierwszy bit, gdy powierzchnia się ugina, drugi, gdy powraca do poprzedniego stanu. Dzięki temu, przepustowość znów się podwaja, teoretycznie do 533 MB/s. Istnieje również plan wprowadzenie trybu 4x, w którym w każdym takcie zegara będą wysyłane 4 bity, co daje ogromną przepustowość l,066 GB/s. AGP posiada wystarczającą przepustowość, by zaspokoić oczekiwania kart graficznych spełniających wymogi stawiane im przez przyszłe komputery PC.
183
Zasoby komputera Do zasobów komputera natężą kanały komunikacyjne, adresy i inne sygnały wykorzystywane przez urządzenia do komunikacji za pośrednictwem magistrali. Na najniższym poziomie do zasobów tych zaticza się: • Adresy w pamięci operacyjnej • Kanały przerwań IRQ (Interrupt ReQest) • Kanały DMA (Direct Memory Access) • Adresy w przestrzeni wejścia/wyjścia Zasoby te wymieniłem w kołejności, w jakiej sprawiają one najczęściej kłopoty. Najbardziej dokucztiwe z nich są konflikty z pamięcią, które z pewnością są najtrudniejsze do złokałizowania i usunięcia. Są one tematem rozdziału 7. pt. „Pamięć", gdzie zostały opisane w kolejności od najczęściej do najrzadziej występujących. Przerwania IRQ sprawiają więcej probtemów niż kanały DMA, ponieważ większe jest na nie zapotrzebowanie urządzeń - praktycznie wszystkie karty rozszerzające wykorzystują przerwania. Mniej probłemów sprawiają kanały DMA, są one rzadziej wykorzystywane przez karty i zazwyczaj jest więcej kanałów do wykorzystania, niż potrzeba. Porty wejścia/wyjścia są najczęściej używane przez wszystkie urządzenia podłączone do magistrałi, jednak z technicznego punktu widzenia jest ich aż 64 kB, co powinno zaspokoić większość wymagań. Wspótne dła wszystkich zasobów jest to, że każdy z nich powinien być wykorzystywany przez unikatowy moduł urządzenia tub kartę, zasoby nie mogą bądź też nie powinny być współdziełone. Zasoby są wymagane i wykorzystywane przez wiełe różnych elementów architektury komputera. Karty rozszerzające komunikują się przy ich pomocy z komputerem w cełu wykonania okreśłonego zadania. Nie wszystkie karty mają takie same zapotrzebowanie na zasoby. Np. port szeregowy wymaga jednego przerwania i jednego adresu l/O, podczas gdy karta dźwiękowa potrzebuje dodatkowo jeszcze jednego kanału DMA. Większość kart sieciowych wymaga 16-kilobajtowego bloku adresów w pamięci, pojedynczego przerwania i jednego adresu I/O. W miarę wzrostu złożoności komputera gwałtownie rośnie prawdopodobieństwo wystąpienia konfliktu w dostępie do zasobów. Konfigurowanie komputera z kartą dźwiękową i sieciową może przyprawić mniej wtajemniczonych użytkowników o ból głowy. Aby umożłiwić rozwiązywanie konfliktów, większość kart pozwala na modyfikację przyznawanych im zasobów za pomocą odpowiedniego ustawiania zworek i przełączników na karcie. Na szczęście w większości przypadków możliwe jest prawidłowe skonfigurowanie komputera, o ile wie się, jak należy postępować. Przerwania (IRQ) Kanały IRQ, okreśłane też jako przerwania sprzętowe, są wykorzystywane przez różne urządzenia w celu zasygnalizowania procesorowi konieczności wykonania określonej akcji. Procedura ta jest podobna do podnoszenia ręki przez ucznia, który w ten sposób prosi o udzielenie mu głosu.
184
Kanały przerwań na płycie głównej i w gniazdach rozszerzających są reprezentowane przez odpowiednie przewody etektryczne. W momencie wystąpienia przerwania kon-trotę nad komputerem przejmuje specjałna procedura obsługi przerwania. W procedurze tej zapisywana jest zawartość wszystkich rejestrów procesora na stosie, po czym odczytywana jest tzw. tabłica wektorów przerwań. Tablica ta zawiera łistę adresów w pamięci odpowiadających kanałom przerwań. W załeżności od numeru wywołanego przerwania wykonywany jest skok do odpowiedniego podprogramu. Wskaźniki do elementów tabłicy wektorów przerwań wskazują na adres sterownika programowego (ang. software driver) w pamięci, który jest wykorzystywany do obsługi przerwania wygenerowanego przez kartę. Np. w przypadku karty sieciowej wskaźnik ten może wskazywać na adres sterownika załadowanego do pamięci i odpowiedzialnego za obsługę karty. W przypadku kontrolera dysku wektor może wskazywać na obszar kodu BIOS-u, który obsługuje kontrołer. Po skończeniu wykonywania podprogramu obsługi przerwania oprogramowanie nadzorujące przywraca ze stosu poprzednie wartości rejestrów procesora i wznowiona zostaje czynność wykonywana przed wystąpieniem przerwania. Dzięki przerwaniom komputer potrafi reagować na zdarzenia zewnętrzne bez konieczności ciągłego oczekiwania na wystąpienia zdarzenia. Za każdym razem, kiedy w porcie szeregowym znajdzie się bajt danych do odczytania, generowane jest przerwanie, aby przesłany bajt został odczytany przed nadejściem następnego. Trzeba pamiętać, że w niektórych przypadkach urządzenie podłączone do portu - w szczególności modem z układem UART 16550 lub wyższym - może zawierać bufor, który pozwala na zapisanie w nim większej ilości znaków, zanim wystąpi przerwanie. Przerwaniom sprzętowym przyporządkowano numery oznaczające priorytety. Oprócz kilku wyjątków przerwanie o najwyższym priorytecie ma najniższy numer. Przerwania 0 wyższym priorytecie mają pierwszeństwo nad przerwaniami o niższym priorytecie 1 mogą przerywać ich obsługę. W rezultacie w komputerze może wystąpić kilka przerwań, z których każde kolejne zagnieżdża się w poprzednim. Dopuszczenie do zagnieżdżania przerwań może prowadzić do przepełnienia stosu (zbyt wiele przerwań zostało wygenerowanych w zbyt krótkim czasie), na skutek czego wystąpi wewnętrzny błąd przepełnienia stosu i komputer się zawiesi. Jeżeli błąd taki zdarza się w systemie DOS. to można się przed nim zabezpieczyć wykorzystując parametr STACK w pliku CONFIG.SYS, dzięki któremu możemy powiększyć dostępny obszar stosu. Błąd ten nie powinien się zdarzyć w systemie Windows 95 czy Windows NT. Magistrala ISA wykrywa przerwania jako sygnały pojawiając się na wyprowadzeniach gniazda rozszerzającego. Każde z wyprowadzeń odpowiada innemu kanałowi przerwań. Ponieważ płyta w większości komputerów nie potrafi rozpoznać, w którym gnieździe znajduje się karta generująca przerwanie, mogłaby się zdarzyć pomyłka, gdyby więcej niż jedna karta była ustawiona na pojedyncze przerwanie. Z tego powodu każde przerwanie jest przeznaczone do wykorzystania przez pojedyncze urządzenie i w większości przypadków przerwania nie mogą być współdzielone.
185
Czasami urządzenie zewnętrzne może dopuszczać do współdzielenia przerwań. Niektóre urządzenia pozwalają na to, jednak większość - nie. Wynika to ze sposobu, w jaki przerwania są zgłaszane magistrati ISA. System poziomowej obsługi przerwań w komputerach z magistraią MCA pozwała na pełne współdziełenie przerwań. W komputerze MCA wszystkie karty mogą mieć ustawione to samo przerwanie i nie spowoduje to konfliktu ani innego problemu. Komputery z magistrałą EISA mogą opcjonalnie wykorzystywać poziomową obsługę przerwań, która pozwata na ich współdziełenie, dotyczy to jednak tytko kart EISA. Jednak w ce!u uzyskania jak największej wydajności, różne linie IRQ powinny być przypisane różnym urządzeniom. Zewnętrzne przerwania sprzętowe są często okreśłane jako przeniwna /na.siowa/nć', co oznacza, że dane przerwanie może zostać zamaskowane tub wyłączone na krótki czas, kiedy procesor jest zajęty wykonywaniem operacji o znaczeniu krytycznym. Do programisty nałeży odpowiednie zarządzanie przerwaniami, tak aby komputer pracował jak najwydajniej. Ponieważ w komputerze z magistralą ISA przerwania nie mogą być na ogół dzielone, często zdarzają się konflikty, a nawet dochodzi do wyczerpania się przerwań. Zdarza się to wtedy, kiedy dodaje się do komputera kołejne urządzenia. Jeżełi dwie karty wykorzystują to samo przerwanie do sygnalizowania komputerowi wystąpienia okreśłonego zdarzenia, to zaistniały konflikt spowoduje, że żadna z nich nie będzie działała poprawnie. W kotejnym podrozdziałe zostaną omówione przerwania wykorzystywane przez różne standardowe urządzenia, a także podane zostaną te przerwania, które są najczęściej dostępne. Przerwania w komputerze z 8-bitową magistralą ISA Komputery PC i XT (pracujące w oparciu o procesor 8086) posiadają osiem różnych) i-nii zewnętrznych przerwań sprzętowych. Tabela 5.6 przedstawia typowe funkcje tych przerwań, numerowanych od O do 7.
Tabela 5.6. Domyslne przydzielanie przerwań w komputerze z 8-bitową magistralą ISA
IRQ 0 1 2 3 4 5 6 7
Funkcja Zegar systemowy Kontroler klawiatury Dostępne Port szeregowy (COM2:) Port szeregowy (COM1:) Kontroler dysku twardego Kontroler stacji dysków Port równoległy 1 (LPT1:)
Obsługa przez gniazdo magistrali Nie Nie Tak Tak Tak Tak Tak Tak
Jeżeti komputer zbudowany jest w oparciu o oryginałną magistrałę ISA, to można stwierdzić, że dostępne przerwania stanowią poważne ograniczenie. Instalacja wielu urządzeń wymagających przerwań IRQ w komputerze PC/XT może przyprawić o frustrację, ponieważ jedynym sposobem na brak przerwań jest usunięcie urządzenia, którego w danej chwili najmniej potrzebujemy.
186
Przerwania w komputerze z 16-bitową magistratą ISA, EISA i MCA W komputerze AT bazującym na procesorze 286 zwiększono ticzbę zewnętrznych przerwań sprzętowych, które magistrata może obsłużyć. Liczba przerwań została powiększona do [6 dzięki wprowadzeniu dwóch kontroterów przerwań Intet 8259, z których jeden został podłączony do niewykorzystanej tinii IRQ2 drugiego kontrotera (tzw. kaskada). Taka konfiguracja oznacza, że dostępnych jest tytko 15 linii IRQ, a linia IRQ2 staje się niedostępna. Skierowanie wszystkich przerwań z drugiego kontrotera IRQ do )inii IRQ2 pierwszego kontrotera spowodowało, że nowe przerwania mają poziom priorytetu pomiędzy IRQ1 a IRQ3. W ten sposób przerwanie IRQ)5 ma wyższy priorytet niż IRQ3. Rysunek 5.)8 przedstawia sposób połączenia ze sobą dwóch układów 8259 w kaskadę.
Aby nie dopuścić do wystąpienia probtemów z kartami ustawionymi na przerwanie IRQ2, projektanci komputera AT skierowali linię przerwania IRQ9 na końcówkę gniazda wykorzystywaną dotychczas przez IRQ2. Oznacza to, że dowolna karta w komputerze używająca przerwania IRQ2 w rzeczywistości korzysta z linii IRQ9. W przypadku niektórych kart przerwanie to jest oznaczone jako IRQ2/9, podczas gdy w innych może być oznaczone jako IRQ2 atbo IRQ9. Bez wzgłędu na oznaczenie, ważne jest to, aby dwie karty nie korzystały nigdy z tego samego przerwania! Tabela 5.7 przedstawia typowe wykorzystanie przerwań w komputerach z 16bitową magistralą ISA, EłSA i MCA w kotejności od najbardziej do najmniej znaczącego priorytetu. Ponieważ przerwanie IRQ2 jest teraz wykorzystywane przez drugi kontroter 8259 na płycie głównej, końcówka w gnieździe rozszerzającym, którą normatnie zajmowała tinia IRQ2, została przypisana tinii IRQ9. Z tego powodu jakakotwiek karta ustawiona na przerwanie IRQ2, w rzeczywistości używa IRQ9. Tabtica wektorów przerwań została ułożona z uwzgtędnieniem tej sytuacji, tak aby zachować kompatybitność z pierwotnym systemem przerwań komputera PC i umożtiwić poprawną pracę kart ustawionych na IRQ2.
187
Tabela 5.7. Domyślne przyporządkowanie przerwań w komputerach opartych na 16bitowych magistralach ISA, EISA i MCA. IRQ
Standardowa funkcja
Obecne w gnieździe magistrali
0
zegar systemowy
Nie
-
1
kontroler klawiatury
-
2
kaskadowe połączenie drugiego kontrolera 8259 zegar czasu rzeczywistego karta sieciowa / dostępne (widziane jako IRQ2)
Nie Nie Nie Tak
8/16-bitowa Karta sieciowa 16-bitowa ]6-bitowa 16-bitowa
8 9
Rodzaj karty
Zalecane użycie
-
10 11 12
dostępne SCSI / dostępne port myszy na płycie głównej / dostępne
Tak Tak Tak
13 14
koprocesor arytmetyczny pierwszy kontroler IDE
Nie Tak
15
drugi kontroler IDE/ dostępne
Tak
3
port szeregowy 2 (COM2:) Tak
4
port szeregowy 1 (COM1:)
Tak
Port USB Kontroler SCSI Port myszy płyty głównej 16-bitowa Pierwszy kontroler IDE (dyski twarde) 16-bitowa Drugi kontroler IDE(CDROM / napędy taśmowe) 8/16-bitowa Port szeregowy COM2 (modem wewnętrzny) 8/16-bitowa COM1
5
Tak
8/16-bitowa Karta dźwiękowa
6
karta dźwiękowa / port równoległy 2 (LPT2:) kontroler stacji dyskietek
Tak
8/16-bitowa Kontroler dyskietek
7
port równoległy 1(LPT1:) Tak
8/16-bitowa LPT1:
Natęży zauważyć, że przerwania 0, ł, 2, 8 i ł3 nie są obecne w gnieździe rozszerzającym i nie są dostępne dla kart. Przerwania 8, 10, 11, 12, 13, 14 i 15 pochodzą z drugiego kontrolera przerwań i są dostępne tylko na tych płytach, które wykorzystują 16-bitowe gniazdo rozszerzające, ponieważ nowe linie przerwań dostępne są tylko w złączu 16-bitowym. Linia 1RQ9 jest w złączu 8-bitowym umieszczona na miejscu linii 1RQ2, co oznacza, że linia 1RQ9 zastępuje 1RQ2 i jest dostępna dla kart 8-bitowych, które traktują ją tak, jakby była linią 1RQ2. Chociaż 16-bitowa magistrala ISA ma dwa razy tyle przerwań, co magistrala 8-bitowa, to wciąż może zdarzyć się sytuacja, gdy zabraknie przerwań, ponieważ tylko 16-bitowe karty mogą korzystać z nowo dostępnych przerwań.
188
Dodatkowe linie IRQ w komputerze z 16-bitową magistralą ISA nie są zbyt użyteczne, chyba że karta rozszerzająca pozwała na skonfigurowanie jej tak, aby wykorzystywała jedno z nowych, nieużywanych przerwań. Niektóre urządzenia są skonfigurowane „na sztywno" i mogą wykorzystywać tyłko okreśłone przerwanie IRQ. Jeżeli instaluje się urządzenia wykorzystujące okreśłone IRQ, to trzeba rozwiązać ewentuałny konflikt przed zainstalowaniem drugiej karty. Jeżełi żadne z urządzeń nie pozwała na zmianę ustawienia przerwania, to prawdopodobnie niemożłiwe jest jednoczesne korzystanie z obydwu urządzeń jednocześnie. Konflikty IRQ Do urządzeń najbardziej podatnych na konflikty nałeżą porty szeregowe (COM). Z poprzednich podrozdziałów można się było dowiedzieć, że dwu portom szeregowym są przypisane dwa różne przerwania. IRQ3 jest wykorzystywane przez port COM2:, a IRQ4 - przez COMl:. Probtem pojawia się wtedy, kiedy w komputerze są więcej niż dwa porty szeregowe taka sytuacja jest realna, ponieważ komputer PC może mieć do czterech portów szeregowych. Problemy z portami szeregowymi pojawiają się dlatego, że większość użytkowników kupuje niewłaściwie zaprojektowane karty, które nie pozwalają na przypisanie portom szeregowym innych przerwań niż 3 czy 4. Jeżeli taka sytuacja się zdarzy, to port COM3: zostanie przypisany do przerwania IRQ4 (będzie je współdzielił z portem COMł:), a port COM4: - do przerwania IRQ3 (współdzieląc je z portem COM2:). Rozwiązanie takie jest nie do przyjęcia, ponieważ uniemożtiwiłoby to jednoczesne korzystanie z dwóch portów COM ustawionych na to samo IRQ. Takie postępowanie uszłoby bezkarnie w systemie operacyjnym DOS, który jest jednozadaniowy (jednocześnie może działać tyłko jeden program), lecz jest nie do zaakceptowania w systemie Windows czy OS/2. Jeżeli przerwania IRQ koniecznie mają być współdzielone, jest to możliwe pod warunkiem, że urządzenia podłączy się do różnych portów COM. Na przykład możliwe jest współdzielenie przerwania przez skaner i modem wewnętrzny, chociaż jednoczesne korzystanie z tych urządzeń spowoduje konflikt. Najlepszym rozwiązaniem jest zakup karty portów szeregowych (multiport serial I/O), która pozwoli na współdzielenie przerwań przez porty COM. Przy okazji dobrze jest się upewnić, że karta z portami COM wykorzystuje buforowane układy UART (Universal Asynchronous Receiver Transmitter) 16550 lub lepsze, a nie wolny, niebuforowany układ 16450. Jedną z firm produkujących wysokiej jakości specjalizowane karty z portami COM jest firma Runner Technologies. Jeżeli w komputerze nie ma urządzenia wymienionego w tabeli, np. portu myszy na płycie głównej (IRQ12) albo portu równoległego 2 (IRQ5), to można traktować przerwania wykorzystywane przez te urządzenia jako dostępne. Na przykład rzadko spotyka się drugi port równoległy, dlatego w większości komputerów karta dźwiękowa będzie wykorzystywać IRQ5. Również w większości komputerów przerwanie IRQ15 jest wykorzystywane przez drugi kontroler IDE. Jeżeli w komputerze nie ma drugiego napędu IDE, to można wyłączyć drugi kontroler IDE, zwalniając w ten sposób IRQ dla kolejnego urządzenia.
189
Najprostszą metodą sprawdzenia ustawień przerwań jest użycie Menedżera urządzeń Windows 9X oraz NT5 tub następnego. Dwukrotne kliknięcie elementu ,,Komputer" w oknie tego Menedżera urządzeń powoduje wyświecenie w miarę pełnej informacji o ustawieniach komputera. Począwszy od wersji B Windows 95, Microsoft dołącza do swoich systemów program HWDIAG, za pomocą którego można sprawdzić ustawienia systemu dużo dokładniej.
Kanały DMA Kanały DMA (Direct Memory Access) są wykorzystywane przez urządzenia przesyłające dane z dużą prędkością. Port równotegły ani szeregowy nie wykorzystują kanałów DMA, wykorzystuje je jednak często karta dźwiękowa i adapter SCSI. Kanały DMA mogą czasami być współdziełone, o ite urządzenia z nich korzystające na to pozwałają. Na przykład możtiwe jest ustawienie na kanał DMA1 karty sieciowej i urządzenia do wykonywania kopii zapasowej na taśmie, ale nie jest możtiwe archiwizowanie danych, gdy działa sieć. Aby móc sporządzać kopię zapasową w czasie działania sieci, trzeba zapewnić każdej karcie osobny kanał DMA. Kanały DMA w komputerze z 8 bitową magistralą ISA W przypadku 8-bitowej magistrati ISA, szybki transfer danych pomiędzy urządzeniami wejścia/wyjścia a pamięcią zapewniony jest dzięki czterem kanałom DMA. Trzy z nich są dostępne przez gniazda rozszerzające. W tabeli 5.8 przedstawiono typowe wykorzystanie tych kanałów.
Tabela 5.8. Domyślne przedzielenie kanałów DMA 8-bitowej magistrali ISA DMA
Standardowa funkcja
0 1
odświeżanie dynamicznej pamięci RAM dostępne kontroter stacji dysków elastycznych kontroler twardego dysku
2 3
Obecne w gnieździe magistrali Nie Tak (8-bitowe) Tak (8-bitowe) Tak (8-bitowe)
Większość komputerów wyposażona jest zarówno w stacje dysków elastycznych, jak i dysk twardy, dlatego w komputerach z 8-bitową magistralą ISA dostępny jest tytko jeden kanał DMA. Kanały DMA w komputerze z 16-bitową magistralą ISA Od czasu pojawienia się procesora 286, magistrala ISA była wyposażona w 8 kanałów, z czego siedem było dostępnych w gniazdach rozszerzających. Podobnie jak dodatkowe linie IRQ, opisane w poprzednim podrozdziale, dodatkowe kanały DMA stworzono łącząc kaskadowo drugi kontroter DMA z pierwszym. Kanał 4 DMA jest wykorzystywany do kaskadowego połączenia kontrotera DMA z kanałami 0-3. Przez kanały 0-3 mogą się odbywać transfery 8-bitowe, a przez kanały 5-7 - tylko transfery 16-bitowe. W tabeli 5.9 przedstawiono typowe wykorzystanie kanałów DMA w komputerze PC.
190
Tabela 5.9. Domyślny przedział kanałów DMA w komputerach z 16-bitową magistralą ISA, EISA i MCA.
DMA
Standardowa funkcja
Obecne w gnieździe rozszerzającym
Rodzaj karty
Transfer
0
Dostępne
Tak
1 6-bitowa
8-bitowy
1
Dźwięk / dostępne
8/16-bitowa 8-bitowy
2
Tak
8/16-bitowa 8-bitowy
4
Kontroler stacji dysków elastycznych Port równoległy ECP / dostępne Pierwszy kontroler DMA
Tak Tak
Tak
-
16-bitowy
5 6 7
Dźwięk / dostępne SCSI / dostępne Dostępne
Tak Tak Tak
16-bitowa ]6-bitowa 16-bitowa
16-bitowy 16-bitowy 16-bitowy
3
8/16-bitowa 8-bitowy
Jedynym kanałem DMA wykorzystywanym standardowo tak samo we wszystkich komputerach jest kanał 2, który obsługuje kontroler stacji dysków etastycznych. Kanał 4 DMA nie nadaje się do użytku i nie został wyprowadzony jako sygnał w gniazdach rozszerzających. Kanały l i 5 DMA są najczęściej wykorzystywane przez kartę dźwiękową, np. Sound Blaster 16. Do szybkiego transferu danych karty te wykorzystują zarówno 8-bitowe, jak i 16bitowe kanały DMA. Pomimo obecności kanału O w wyprowadzeniu 16-bitowego złącza gniazda rozszerzającego, dzięki czemu kanał ten może być wykorzystywany przez kartę 16-bitową, możliwy jest tylko 8bitowy transfer danych przez kanał 0. Z tego powodu kanał ten rzadko bywa ustawiany przy konfiguracji kart 16-bitowych. Większość kart 16-bitowych, które wykorzystują kanały DMA (np. adapterów SCSI), ogranicza wybór do kanału 5, 6 lub 7. Magistrala EISA Zdając sobie sprawę z wrodzonych mankamentów magistra)! ISA, twórcy magistrat! EłSA wykorzystati w nowej magistrat! dość specyficzny układ kontrotera DMA. Zwiększona została ticzba tinii adresowych, która objęła całą magistratę adresową i w ten sposób umożtiwiono dokonywanie transferów DMA w dowolnym obszarze pamięci. Każdy kanał DMA może być ustawiony na 8-, 16- albo 32-bitowy transfer danych. Ponadto każdy kanał może być osobno zaprogramowany na pracę w jednym z czterech rodzajów cykti magistrali: •
Ta metoda transferu zachowuje te same wymogi czasowe, co transfer DMA na magistrat! !SA. Dzięki temu została zachowana kompatybilność z kartami ISA, wszystkie mogą w tym trybie współpracować z magistralą EISA.
191
•
Typ A. Ten rodzaj transferu jest o 25 % szybszy od typu kompatybiłnego. Został on opracowany z myślą o współpracy z większością (łecz nie ze wszystkimi) kart ISA i w dałszym ciągu nie jest zadowałający pod względem szybkości transferu.
•
Typ B. Ten rodzaj transferu jest o 50 % szybszy od typu kompatybiłnego. Większość kart EISA będzie w tym trybie pracować właściwie, jednak jeśli chodzi o karty ISA, tytko kilka z nich będzie pracowało bezproblemowo.
•
Typ C. W tej metodzie transfer jest o 87,5 % szybszy od transferu metodą kompatybiłną. Jest to najszybsza metoda transferu DMA na magistrat! EISA. Żadna z kart ISA nie będzie pracować w tym trybie.
Kontroler EISA DMA pozwala również na wykonywanie specjalnych operacji zapisu i odczytu danych, określanych jako ycaMer wnfe (rozproszony zapis) i scatter write (dosł. skupiające czytanie). To pierwsze dokonuje się poprzez odczytanie ciągłego btoku danych i zapisanie go w różnych miejscach pamięci jednocześnie. To drugie oznacza odczyt z różnych miejsc pamięci i przesyłanie odczytanych danych do urządzenia zewnętrznego. Funkcje te są często okreśtane jako buforowane łańcuchowanie (ang. buffered chaining) i pozwalają na zwiększenie przepustowości kanałów DMA. Magistrala MCA Mogłoby się wydawać, że ponieważ magistrala MCA jest całkowicie oryginalnym rozwiązaniem magistrali komputera PC, to idea DMA w środowisku MCA będzie lepiej dopracowana. Tak jednak nie jest. Wręcz przeciwnie, DMA w komputerze z magistratą MCA zostało zrealizowane w oparciu o pojedynczy kontroler DMA z następującymi ograniczeniami: •
Można łączyć ze sobą maksymatnie dwa 8-bitowe źródła/ujścia danych. Z tego powodu możtiwy jest transfer tylko jednego lub dwóch bajtów danych w czasie pojedynczego cyktu magistrati.
•
Kontroter DMA jest podłączony na magistrałi adresowej tylko do linii AO:A23. Oznacza to, że może zaadresować najwyżej 16 MB pamięci.
•
DMA pracuje z częstotliwością 10 MHz.
Adresy portów I/0 Znajdujące się w komputerze porty I/O umożliwiają komunikację pomiędzy oprogramowaniem i sprzętem. Są one odpowiednikiem dwukierunkowych kanałów radiowych. Jeśti chcesz coś przekazać portowi szeregowemu, musisz wiedzieć, jakiego słucha portu I/O (kanału radiowego). Podobnie, jeśti chcesz odebrać dane z portu szeregowego, musisz skorzystać z kanału, na którym są one nadawane. W odróżnieniu od kanałów DMA i przerwań IRQ, portów I/O mamy bardzo dużo. Dokładniej, w komputerze PC znajdują się 65535 porty (numerowane od 0000h do FFFFh),
192
a jest to bardziej związane z architekturą procesorów Intela niż cokolwiek innego. Ponieważ portów I/O jest tak wiele, nawet jeśti większość urządzeń wykorzysta do dziewięciu portów jednocześnie, w najbliższym czasie nie będziemy się skarżyć na ich niedostatek. Największym problemem, z którym musisz się uporać, jest wykorzystywanie tego samego portu przez dwa różne urządzenia. Większość nowoczesnych systemów Plug-and-Play potrafi automatycznie rozwiązać wszystkie konflikty portów i wybrać inny port dta jednego z niepoprawnie działających urządzeń. Dość mylącą cechą portów I/O jest to, że opisuje się je za pomocą heksadecymatnych adresów, podobnych do adresów pamięci. To nie jest pamięć; to są porty. Różnica potęga na tym, że jeśti wyślesz dane do adresu pamięci l000h, zostaną one zachowane w znajdujących się w komputerze układach SIMM lub DIMM. Jeśti wyśtesz dane do adresu portu I/O l000h, zostaną one wysłane poprzez magistralę na ten „kanał" i urządzenie, które oczekuje na danym „kanale" na sygnały, „usłyszy" je. Jeśli pod danym adresem portu nie znajduje się żadne urządzenie, dane opuszczą magistralę i zostaną usunięte. Tym, co umożliwia interakcje pomiędzy urządzeniami o różnych adresach portów, są przede wszystkim programy sterowników. Aby działać z danym urządzeniem, sterownik musi wiedzieć, z którymi portami urządzenie współpracuje i odwrotnie, z którymi urządzeniami współpracują dane porty. Najczęściej nie stanowi to żadnego probtemu, ponieważ zarówno sterownik, jak i urządzenie pochodzą od tego samego producenta. Urządzenia i układy płyt głównych zazwyczaj wykorzystują porty I/O o adresach od Oh do FFh, wszystkie inne urządzenia korzystają z adresów od l00h do FFFFh. W tabeli 5.10 wymieniono przypisania najważniejszych portów I/O urządzeń i układów płyt głównych:
Tabela 5.10. Adresy portów urządzeń i układów płyt głównych Adres (hex)
Rozmiar
Opis
000-000F 0020-0021
16 bajtów 2 bajty
Chipset-8237 DMA l Chipset - 8259 Kontroter przerwań l
002E-002F 0040-0043 0048-004B 0060 0061 0064 0070, bit 7 0070, bity 6:0 0071 0078
2 bajty
Rejestry konfiguracji kontrotera Super I/O
4 bajty 4 bajty 1 bajt 1 bajt 1 bajt 1 bit 7 bitów 1 bajt 1 bajt
Chipset - programowalny układ zegarowy (kanał 1) Chipset - programowatny układ zegarowy (kanał 2) Bajt kontrotera klawiatury/myszy - zresetowanie IRQ Chipset - NMI, kontrota głośniczka systemowego (speaker) Kontroter klawiatury/myszy, Chipset - włączenie NMI MC 146818 - Zegar czasu rzeczywistego, adres MC 146818 - Zegar czasu rzeczywistego, dane Zarezerwowane - Konfiguracja ptyty głównej
193
Tabela 5.10. c.d. Adresy portów urządzeń i układów płyt głównych Adres (hex) Rozmiar Opis 0079 1 bajt Zarezerwowane - Konfiguracja płyty głównej 0080-008F 16 bajtów Chipset - Rejestry strony DMA 00A0-00A1 2 bajty Chipset - 8259 Kontroler przerwań 2 00B2 t bajt Port kontrolny APM 00B2 1 bajt Port statusu APM 00C0-00DE 31 bajtów Chipset -8237 DMA 2 00F0 1 bajt Inicjowanie koprocesora po błędzie Aby odnateźć dokładne adresy portów, z których korzysta płyta główna, zajrzyj do dokumentacji płyty głównej tub do ustawień w Menedżerze urządzeń systemu Windows. Urządzenia wykorzystujące magistratę zazwyczaj korzystają z adresów od 100h w górę. W tabełi 5. H wypisano najczęściej używane przez te urządzenia adresy, jak również adresy wykorzystywane przez niektóre popułarne karty rozszerzeń. Tabela 5.11. Adresy portów urządzeń korzystających z magistrali Adres (hex) Rozmiar Opis 0130-0133 4 bajty Kontroter Adaptec SCSI (alternatywny) 0134-0137 4 bajty Kontroter Adaptec SCSt (alternatywny) 0168-016F 8 bajtów Czwarty interfejs IDE 0170-0177 8 bajtów Drugi interfejs IDE 01E8-01EF 8 bajtów Trzeci interfejs IDE 01FO-01F7 8 bajtów Podstawowy kontroler twardego dysku IDE/ AT (16bitowy) 0200-0207 8 bajtów Kontroter portu gier lub joysticka 0210-0217 8 bajtów Karty rozszerzeń dla komputerów IBM XT 0220-0233 20 bajtów Karta dźwiękowa Sound Btaster 16 Creative Labs (standardowy) 0230-0233 4 bajty Kontroler Adaptec SCSI (alternatywny) 0234-0237 4 bajty Kontroler Adaptec SCSI (alternatywny) 0238-023B 4 bajty Mysz MS (alternatywny) 023C-023F 4 bajty Mysz MS (standardowy) 0240-024F 8 bajtów Kontroler sieci Ethernet SMC (standardowy) 0240-0253 20 bajtów Karta dźwiękowa Sound Blaster 16 Creative Labs (alternatywny) 0258-025F 8 bajtów Karta Intet Above Board 0260-026F 8 bajtów Kontroler sieci Ethernet SMC (alternatywny)
194
Tabela 5.11.c.d. Adresy portów urządzeń korzystających z magistrali Adres (hex) Rozmiar Opis 0260-0273 20 bajtów Karta dźwiękowa Sound Blaster 16 Creative Labs (alternatywny) 0270-0273 4 bajty Porty odczytu Plug-and-Play I/O 0278-027F 8 bajtów Drugi port równoległy (LPT2) 0280-028F 8 bajtów Kontroler sieci Ethernet SMC (alternatywny) 0280-0293 20 bajtów Karta dźwiękowa Sound Blaster 16 Creative Labs (alternatywny) 02A0-02AF 8 bajtów Kontroler sieci Ethernet SMC (alternatywny) 02C0-02CF 8 bajtów Kontroler sieci Ethernet SMC (alternatywny) 02E0-02EF 8 bajtów Kontroler sieci Ethernet SMC (alternatywny) 02E8-02EF 8 bajtów Czwarty port szeregowy (COM4) 02EC-02EF 4 bajty Porty kart graficznych standardu 8514 tub ATI 02F8-02FF 8 bajtów Drugi port szeregowy (COM2) 0300-0301 2 bajty Port MIDI MPU-401 (drugi) 0300-030F 8 bajtów Kontroler sieci Ethernet SMC (alternatywny) 0320-0323 4 bajty Kontroler dysku twardego XT (8-bitowy) 0320-032F 8 bajtów Kontroler sieci Ethernet SMC (alternatywny) 0330-0331 2 bajty Port MIDI MPU-401 (standardowy) 0330-0333 4 baty Kontroler Adaptec SCSI (standardowy) 0334-0337 4 baty Kontroler Adaptec SCSI (alternatywny) 0340-034F 8 bajtów Kontroler sieci Ethernet SMC (alternatywny) 0360-036F 8 bajtów Kontroler sieci Ethernet SMC (alternatywny) 0366 1 bajt Port poleceń czwartego IDE 0367, bity 7 bitów Port statusu czwartego IDE 6:0 0370-0375 6 bajtów Drugi kontroler stacji dysków 0376 1 bajt Port poleceń drugiego IDE 0377, bit 7 1 bit Kontroler zmiany dysku w drugiej stacji dysków 0377, bity 6:0 7 bitów Port statusu drugiego IDE 0378-037F 8 bajtów Pierwszy port równoległy (LPTI) 0380-038F 8 bajtów Kontroler sieci Ethernet SMC (alternatywny) 0388-038B 4 bajty Syntetyzator dźwięku stereo 03B8-03BB 12 bajtów Porty kart graficznych standardów Mono/EGA/VGA 03BC-03BF 4 bajty Pierwszy port równoległy (LPTI) w niektórych komputerach
195
Tabela 5.11.c.d. Adresy portów urządzeń korzystających z magistrali Adres (hex) 03BC-03BF 03CO-03CF 03DO-03DF 03 E6 03E7, bity6:0 03E8-03EF 03FO-03F5 03F6 03F7, bit 7 03F7, bity6:0 03F8-03FF 04DO-04D1 0530-0537 0604-060B 0678-067F 0778-077F OA20-OA23 OA24-OA27 OCF8-OCFB OCF9 OCFC-OCFF FFOO-FF07 FF80-FF9F FFAO-FFA7 FFA8-FFAF
Rozmiar 4 bajty 16 bajtów 16 bajtów 1 bajt 7 bitów 8 bajtów 6 bajtów 1 bajt 1 bit 7 bitów 8 bajtów 2 bajty 8 bajtów 8 bajtów 8 bajtów 8 bajtów 4 bajty 4 bajty 4 bajty 1 bajt 4 bajty 8 bajtów 32 bajty 8 bajtów 8 bajtów
Opis Trzeci port równoległy (LPT3) Porty kart graficznych standardów EGA/VGA Porty kart graficznych standardów CGA/EGA/VGA Port poleceń trzeciego IDE Port statusu trzeciego IDE Trzeci port szeregowy (COM3) Pierwszy kontroter stacji dysków Port poteceń pierwszego IDE Kontroler zmiany dysku w pierwszej stacji dysków Port statusu pierwszego IDE Pierwszy port szeregowy (COM1) Kontroler przełączanych zboczem tub poziomem przerwań PCI Windows Sound System (standardowy) Windows Sound System (alternatywny) LPT2 w trybie ECP LPT1 w trybie ECP Kontroler sieci Token Ring IBM-a (standarowy) Kontroter sieci Token Ring IBM-a (attematywny) Rejestry adresu konfiguracji PCI Rejestry kontrotne resetu i turbo Rejestry danych konfiguracji PCI Rejestry Bus Master IDE Uniwersatny port szeregowy (USB) Rejestry pierwszego Bus Master IDE Rejestry drugiego Bus Master IDE
Aby odnaleźć dokładne adresy portów, z których korzystają urządzenia w komputerze, podobnie jak poprzednio, zajrzyj do dokumentacji danego urządzenia lub do ustawień w Menedżerze urządzeń systemu Windows. Właściwie wszystkie urządzenia podłączone do magistral w komputerze wykorzystują adresy portów I/O. Większość z nich jest ustandaryzowana, co oznacza, że nie powinny się zdarzyć konflikty ani związane z tymi ustawieniami probtemy. W dalszej części rozdziału zostaną omówione techniki, które możesz wykorzystać przy rozwiązywaniu ewentualnych problemów.
196
Rozwiązywanie konfłiktów w dostępie do zasobów Ilość zasobów w komputerze jest ograniczona. Niestety, zapotrzebowanie na nie wydaje się wprost nieograniczone. W miarę dodawania coraz to nowych kart rozszerzających, okazuje się, że wzrasta możliwość wystąpienia konfliktu. Jeżeti komputer jest w pełni kompatybitny ze specyfikacją PnP, to potencjalne konflikty powinny być rozwiązywane automatycznie. Jeżeti magistrala komputera nie wyręcza użytkownika w rozwiązywaniu problemów (np. w przypadku komputerów z magistralą EISA czy MCA), to trzeba powstałe konflikty rozwiązywać ręcznie. Skąd wiadomo, że zaistniał konflikt w dostępie do zasobów? Zazwyczaj jedno z urządzeń w komputerze przestaje wówczas pracować. Jednak konflikty w dostępie do przerwań mogą się również objawiać w inny sposób. Pojawienie się dowolnego zdarzenia z poniższej listy może oznaczać konflikt: •
Urządzenie przesyła dane w sposób niedokładny.
•
Komputer często się zawiesza.
•
Dźwięk z karty dźwiękowej nie brzmi prawidłowo.
•
Nie działa mysz.
•
Na ekranie monitora bez żadnych powodów pojawiają się śmieci.
•
Drukarka drukuje bzdury.
•
Nie można sformatować dyskietki.
•
System operacyjny (Windows 95) uruchamia się w trybie awaryjnym.
W kolejnym podrozdziale zostaną omówione niektóre kroki, jakie należy wykonać w cetu zażegnania konfliktów w dostępie do zasobów lub w celu rozpoznania konfliktów, które już wystąpiły. Dobre źródło informacji ontine na temat konfliktów w dostępie do zasobów znaleźć można na internetowej stronie: http://www.atipa.com/InfoSheets/IRQs.shtml Należy zachować pewną ostrożność przy rozpoznawaniu konfliktów, ponieważ zaistniały problem może wcale nie być wynikiem konfliktu, lecz działania wirusa komputerowego. Wiele wirusów zostało napisanych tak, że udają konflikty albo periodycznie pojawiające się problemy. Jeżeli podejrzewamy, że wystąpił konflikt, to dobrze jest uruchomić najpierw program antywirusowy, aby upewnić się, że komputer nie został zainfekowany. Takie postępowanie może oszczędzić godzin pracy i zapobiec frustracji.
197
Ręczne rozwiązywanie konftiktów Niestety, jedynym sposobem na ręczne rozwiązywanie konfliktów jest zdjęcie obudowy komputera oraz zmiana ustawień zworek i przełączników na kartach rozszerzających. Po każdej takiej zmianie trzeba ponownie uruchomić komputer, wskutek czego zajmuje to dość dużo czasu. Sytuacja taka pozwała nam na sformułowanie pierwszej reguły dotyczącej rozwiązywania konfliktów: kiedy przystępujemy do usuwania konfliktów w dostępie do zasobów komputera, natęży mieć w zapasie dużo wolnego czasu. Natęży również spisać na kartce aktualne ustawienia konfiguracyjne, zanim zacznie się je zmieniać. W ten sposób będzie wiadomo, co zostało zmienione, i w razie potrzeby możtiwy będzie powrót do oryginalnej konfiguracji. ł wreszcie - dobrze jest odszukać dokumentację wszystkich kart rozszerzających, ponieważ będzie nam potrzebna. W razie braku dokumentacji, o znaczenie danej z worki czy przełącznika można spytać producenta. Ponadto dobrze jest się zaopatrzyć w dokładniejszą informację online, którą można znaleźć na stronie internetowej producenta urządzenia. Teraz już detektyw może przystąpić do dzieła. W trakcie próbowania różnych ustawień przełączników i zworek należy stawiać sobie pytania, a udziełone na nie odpowiedzi pomogą zawęzić obszar konfliktów: •
Kiedy konflikt po raz pierwszy stał się widoczny? Jeżełi konflikt pojawił się po włożeniu nowej karty rozszerzającej, to prawdopodobnie ona jest źródłem konfliktu. Jeżełi konflikt pojawił się po tym, jak zaczęto używać nowego oprogramowania, to może oprogramowanie to w nietypowy sposób obsługuje urządzenie, które jest w posiadaniu zasobów komputera.
•
Czy w komputerze znajdują się dwa podobne urządzenia, które nie działają?Np. jeżeli nie działają modem i mysz - wykorzystujące port szeregowy – to wszystko wskazuje na to, że urządzenia te są we wzajemnym konflikcie.
•
Czy ktoś z innych użytkowników napotkał ten sam problem i w jaki sposób sobie z nim poradził? Forum publiczne - takie jak sieć CompuServe, grupy dyskusyjne w łnternecie czy sieć America Online - to świetne miejsce do poruszania tych spraw, można tam spotkać innych użytkowników, którzy być może pomogą rozwiązać problem.
Po każdej zmianie parametrów konfiguracji sprzętowej komputera należy ponownie uruchomić komputer i sprawdzić, czy problem występuje nadal. Nawet kiedy wydaje się, że problem został usunięty, nie można zapomnieć o przetestowaniu wszystkich programów. Usunięcie jednego problemu często powoduje pojawienie się kolejnego. Jedyną możliwością upewnienia się, że wszystkie problemy zostały rozwiązane, jest pełne przetestowanie całego komputera. Jedną z najważniejszych porad, jakich w tej chwiłi mogę udzielić, jest to, aby nigdy nie wprowadzać od razu więcej niż jednej zmiany. Nowe ustawienia należy przetestować i znów dokonywać zmian. Jest to najbardziej metodyczny sposób szybkiego rozwiązania problemów i odnajdywania usterek.
198
Przy rozwiązywaniu konfliktów w dostępie do zasobów dobrze jest prowadzić i aktualizować na bieżąco szabton konfiguracji sprzętowej, który zostanie omówiony w kotejnym podrozdziate.
Wykorzystanie szablonu konfiguracji sprzętowej Szabton konfiguracji sprzętu jest pomocny po prostu dtatego, że łatwiej jest zapisać coś na kartce papieru, niż to zapamiętać. Aby stworzyć szablon, natęży rozpisać na kartce papieru zasoby komputera oraz urządzenia je wykorzystujące. Kiedy trzeba zmienić atbo dodać do komputera nowe urządzenie, to z pomocą szabtonu można szybko okreśtić potencjatne źródło konfliktów. Ja sporządzam szabton dzietąc arkusz papieru na trzy części: jedną z informacjami o przerwaniach, drugą d)a kanałów DMA, a w środku umieszczam tistę urządzeń, które nie wykorzystują przerwań. W każdej części kanały IRQ i DMA są wymienione z tewej strony, a adresy portów z prawej. W ten sposób otrzymuję przejrzysty obraz wykorzystywanych i dostępnych zasobów komputera. Poniżej przedstawiam szabłon konfiguracji sprzętowej, który opracowałem w ciągu iat pracy i z którego wciąż korzystam prawie codziennie. Ten rodzaj szabtonu opiera się na zasobach komputera, a nie na urządzeniach wykorzystujących zasoby. Każdy wiersz szablonu reprezentuje inny zasób i wymienione są w nim zarówno urządzenia wykorzystujące dany zasób, jak i pozostałe zasoby wykorzystywane przez to urządzenie. W tabeti zostały wstępnie umieszczone te urządzenia, których konfiguracja nie może zostać zmieniona. W cełu wypełnienia szabtonu natęży postępować według następującego schematu: 1.Wprowadzenie domyśłnych zasobów używanych przez standardowe urządzenia, takie jak porty szeregowe i równotegłe, kontrolery dyskowe czy karty graficzne. Można w tym cełu skorzystać z przygotowanego przeze mnie przykładowego formutarza, w którym zapisana jest konfiguracja większości standardowych urządzeń. 2.Wprowadzenie domyśłnych zasobów wykorzystywanych przez dodatkowe urządzenia, takie jak karty dźwiękowe, karty adapterów SCSI, karty sieciowe, specjatizowane karty różnych producentów itp. 3.Zmiana konfiguracji tych urządzeń, które pozostają w konflikcie z innymi. Należy starać się pozostawić wbudowane urządzenia i karty dźwiękowe z ich domyślnymi wartościami. Ustawienia pozostałych urządzeń można zmienić, ale należy pamiętać o udokumentowaniu dokonywanych zmian. Najlepiej jest sporządzić szabton podczas pierwszej instatacji urządzeń w komputerze, a nie potem. Kiedy już całkowicie się go wypełni, tak że odpowiada konfiguracji komputera, dobrze jest go oznaczyć i schować gdzieś w pobtiżu. W miarę dodawania nowych urządzeń szablon będzie służył jako przewodnik przy ich konfigurowaniu. W kolejnym przykładzie pokazany jest wypełniony szabłon typowego komputera PC.
199
Szabion zasobów komputera Producent i model komputera :……………………… Numer seryjny :………………………………… Data ostatnich zmian : …………………………… Przerwania sprzętowe 0 Zegar systemowy ........................... 1 Kontroler ktawiatury ...................... 2 Drugi kontroler przerwań - układ 8259 8 Zegar czasu rzeczywistego / CMOS RAM 9 ..... 10 ………… 11 ………… 12 …………… 13 Koprocesor arytmetyczny (N/A w [gniieździerozszerzającym) ……………… 14 ……… 15 ………
Adresy portów
040-05F ................ 060 & 064 ................ 0A0 - 0BF 070-07F .........
0F0 – 0FF
3 4 5 6 7
Urządzenia nie korzystające z przerwań
Standardowe porty kart Mono/EGA/VGA……… Standardowe porty kart EGA/VGA ………… Standardowe porty kart CGA/EGA/VGA……………
Adresy portów
1B0-3BB . 3C0-3CF ...... 3D0 - 3DF
Kanały DMA
0 1 2 3 4 Kaskadowo połączone z kanałami 0-3 (N/A w gnieździe rozszerzającym) 5 6 7
200
Szablon zasobów komputera Producent i model komputera: Intel Adyanced ZP Numer seryjny: 100000 Data ostatnich zmian: 7/5/95 Przerwania sprzętowe
Adresy portów
0 Zegar systemowy 1 Kontroler klawiatury ................. 2 Drugi kontroler przerwań — układ 8259 .............................. 8 Zegar czasu rzeczywistego /CMOS RAM ..................... 9 Karta sieciowa SMC EtherEZ * 10 1 1 Adapter SCSI Adaptec 1 542CF (skaner, taśmy) 12 13 Koprocesor arytmetyczny (N/A w gnieździe 14 Pierwszy kontroler IDE (twardy dysk 1 i 2) 15 Drugi kontroler IDE (napęd CD-ROM IDE) 3 Port szeregowy COM 2 (COM2: mysz szeregowa) 4 Port szeregowy COM 1 (COM 1 : modem zewnętrzny) 5 Sound Blaster 16 Audio 6 Kontroler stacji dyskietek 7 Port równoległy LPT 1 (LPT1 : wykorzystywany przez drukarkę) Urządzenia nie korzystające z przerwań Standardowe porty kart Mono/EGA/VGA .......................... Standardowe porty kart EGA/YGA ....................................... Standardowe porty kart CGA/EGA/VGA Dodatkowe porty karty ATI Match 64 SVGA Port MIDI karty Sound Blaster 16 Port gier (podłączenie joysticka) karty Sound Blaster 16 Syntezator karty Sound Blaster 16 (odtwarzanie muzyki)
040- 35F 060 & 064 OBF ........ 37F ......... 35F* 334-337 OFO- OFF . 1F7 177 3FF 2FF 233 3F7 37F y portów 3BO- 3BB 3CO3CF ........... 3DF r E, 1CF,2EC207 18B
Kanały DMA 0 t Sound Blaster 16 (8-bitowe DMA) 7 Kontroler stacji dyskietek 3 Port równoległy (w trybie EPP/ECP) 4 Kaskadowo połączone z kanałami 0-3 (N/A w gnieździe 6 Adapter SCSI Adaptec 1542CF* 7
n) .......
201
Z powyższego szabtonu wynika, że dostępne pozostają tytko dwa przerwania IRQ i dwa kanały DMA. W tej przykładowej konfiguracji pierwsze i drugie złącze IDE były wbudowane w płytę główną: •
Kontroter stacji dyskietek.
•
Dwa porty szeregowe.
•
Jeden port równoległy.
To, czy urządzenia te zostały umieszczone na płycie głównej, czy też są dołączane na osobnych kartach, nie ma większego znaczenia, ponieważ w każdym przypadku przyporządkowanie zasobów pozostaje takie samo. Wszystkie ustawienia domyślne dotyczą wymienionych urządzeń i są zaznaczone w uzupełnionej konfiguracji. W następnej kolejności zostały skonfigurowane karty dodatkowe. W tym przypadku zostały zainstalowane następujące karty: •
Karta graficzna SVGA (ATI Match 64).
•
Karta dźwiękowa (Sound Btaster 16 firmy Creative Labs).
•
Adapter SCSI (modę! Adaptec AHA-1542CF)
•
Karta sieciowa (SMC EtherEZ)
Zainstatowanie kart w takim porządku może się okazać pomocne. Na początku instalujemy kartę graficzną, następnie dźwiękową. Z powodu ewentualnych problemów z oprogramowaniem, które wykorzystuje kartę dźwiękową, najlepiej jest zainstalować ją na początku i pozostawić ustawienia domyślne. Lepiej jest zmienić ustawienia dowolnej innej karty zamiast karty dźwiękowej. Po karcie dźwiękowej został zainstalowany adapter SCSI; jednak domyślne adresy portów (330-331) i kanał DMA (DMA 5) powodowały konflikt z innymi urządzeniami (przede wszystkim z kartą dźwiękową). Ustawienia te zostały zmienione na najbliższe możliwe wartości, które nie powodowały już konfliktu. Na końcu została skonfigurowana karta sieciowa, której domyślne ustawienia również powodowały konflikt z innymi urządzeniami. Karta sieciowa była ustawiona przez producenta na przerwanie IRQ3, które było już wykorzystywane przez port COM2. Rozwiązaniem była zmiana przerwania, a najbliższą możliwą wartością w ustawieniach karty było IRQ9. Pomimo „przeładowania" opisanej tu konfiguracji sprzętowej, trzeba było zmienić ustawienia tylko trzech spośród wszystkich urządzeń, aby komputer działał poprawnie. Jak widać, korzystanie z szablonu konfiguracji podobnego do opisanego przeze mnie, może znacznie uprościć konfigurowanie komputera, które inaczej polegałoby na chaotycznym i przypadkowym zmienianiu ustawień. Jedynym problemem, jaki można napotkać pracując z szablonem, są karty bez dokumentacji. Oczywiste jest, że do dokładnego wypełnienia tabeli konfiguracyjnej potrzebna jest dokumentacja każdej karty rozszerzającej, a także dokumentacja płyty głównej.
202
Nie powinno się zbytnio polegać na wskazaniach programów diagnostycznych, np. MSD.EXE, które rzekomo potrafią ustalić zajmowane zasoby: przerwania IRQ czy adresy portów. O ile mogą one w pewnych sytuacjach być pomocne, to jednak często się zdarza, że dane przez nie prezentowane są nieprawdziwe. Takie informacje, dotyczące konfiguracji jednego lub dwóch urządzeń, mogą być ważnym źródłem kłopotów, jeżeli się w nie uwierzy i według nich skonfiguruje komputer. Jeżełi komputer nie obsługuje w pełni specyfikacji PnP, to nie istnieje prosty, standardowy sposób okreśłenia przez oprogramowanie stopnia wykorzystania zasobów w komputerze. W komputerach pozbawionych PnP programy testujące będą za to próbowały „domyśłić" się konfiguracji komputera i mogą prezentować uzyskane wyniki jako prawdziwe, nawet jeśii są one niezgodne z prawdą.
Rozwiązywanie probłemów z kartami specjalizowanymi Sporo urządzeń instałowanych w komputerze wymaga przydzielenia im Unii IRQ czy kanałów DMA, co oznacza, że urządzenia te są dość podatne na konflikty, jeżełi są niewłaściwie skonfigurowane. Jak wspomniałem w poprzednim podrozdziale, można oszczędzić sobie sporo problemów, jeżeti prowadzi się szablon konfiguracji komputera, w którym opisuje się dane o sposobie skonfigurowania komputera. Można również oszczędzić sobie wietu kłopotów zapoznając się uważnie z dokumentacją nowej karty, zanim się ją zainstaluje w komputerze. W dokumentacji podane sąłinie IRQ wykorzystywane przez urządzenie, a także wymagania odnośnie kanałów DMA. Ponadto w dokumentacji można znaleźć informacje na temat zapotrzebowania urządzenia na górną pamięć komputera, niezbędną dła karty i jej pamięci ROM. W kołejnych podrozdziałach zostaną opisane niektóre konflikty, które mogą się pojawić przy instałacji większości popułarnych kart. Chociaż lista kart nie jest w pełni wyczerpująca, może służyć jako przewodnik, który pozwoli na zainstałowanie rozbudowanego sprzętu z minimałną ilością kłopotów. Zamieszczone zostały wskazówki dotyczące kart dźwiękowych, adapterów SCSI i kart sieciowych.
Karty dźwiękowe Karty dźwiękowe są prawdopodobnie największym głodomorem w komputerze pod wzgtędem łakomstwa na jego zasoby. Wykorzystują one na ogół przynajmniej jedno przerwanie IRQ, dwa kanały DMA i wiele adresów portów wejścia/wyjścia. Jest to spowodowane tym, że karta dźwiękowa stanowi zbiór różnych urządzeń skupionych na jednej płytce. Większość kart dźwiękowych przypomina funkcjonalnie kartę Sound Blaster firmy Creative Labs.
203
Rysunek 5.19 przedstawia domyślne zasoby wykorzystywane przez urządzenia typowej karty Sound Blaster 16.
Rys.5.19.Domyślne ustawienie zasobów karty Sound Blaster 16 Urządzenie Przerwanie
Adres portu
16bitoweDMA
8bitoweDMA
Audio
220h-233h
DMA 5
DMA 1
Urządzenie Port MIDI Syntezator FM Port gier
IRQ5
Przerwanie 330h-331h 388h-38Bh 200h-207h
Jak widać, karty te wymagają sporej ilości zasobów. Jeżeli poświęca się czas na przeczytanie dokumentacji karty dźwiękowej i ustalenie jej wymagań w odniesieniu do kanałów komunikacyjnych, to warto również porównać te parametry z numerami linii IRQ i kanałów DMA wykorzystywanych w komputerze. W celu uniknięcia konfliktów z kartą dźwiękową należy ewentualnie zmienić ustawienia innych urządzeń - instalacja powinna przebiegać szybko i bez zakłóceń. Najlepszą radą dotyczącą karty dźwiękowej, jakiej mógłbym udzielić, jest instalowanie jej przed wszystkimi pozostałymi urządzeniami, lecz po karcie graficznej. Dobrze jest pozwolić karcie dźwiękowej, aby pozostała przy domyślnych ustawieniach i nie zmieniać ich nigdy, gdy chce się usunąć konflikt. Zamiast tego należy zmieniać ustawienia innych urządzeń pozostających w konflikcie z kartą dźwiękową. Problem polega na tym, że wiele gier i programów edukacyjnych wykorzystujących kartę dźwiękową jest bardzo źle napisanych pod względem obsługi jej zasobów. Oszczędź sobie zmartwień i pozwól karcie dźwiękowej pójść własną drogą! Przykładem sytuacji potencjalnie konfliktowej jest kombinacja kart Sound Blaster 16 i adaptera SCSI firmy Adaptec. Konflikt ten obejmie kanał 5 DMA oraz adresy portów 330-331. Zamiast zmieniać ustawienia karty dźwiękowej, lepiej jest zmienić ustawienia adaptera SCSI na najbliższe dostępne ustawienia, które nie spowodują konfliktu z kartą dźwiękową ani z żadnym innym urządzeniem. Końcowe ustawienia zostały zamieszczone w szablonie konfiguracji sprzętowej. Karty Sound Blaster 16 i AHA-1542C zostały wymienione nie dlatego, że stanowiąjakiś szczególnie poważny przypadek, lecz dlatego, że są to najpopularniejsze urządzenia wśród kart dźwiękowych i adapterów SCSI i często są razem zainstalowane w komputerze. Karty muzyczne są produkowane również w wersjach PCI, lecz mimo to wykorzystują te same rodzaje zasobów komputera z wyjątkiem kanału DMA. Niestety, to nie kanały DMA były ograniczeniem w rozbudowie systemu komputerowego. Brak wolnych przerwań nadal skutecznie utrudnia konfigurowanie systemu - przerwanie PCI jest mapowane
204
w obszarze przerwań ISA IRQ. Prawdziwe rozwiązanie nadejdzie wkrótce - kiedy raz na zawsze system PC zrezygnuje z kart ISA. Wtedy ograniczenia ilości przerwań już nie będą przeszkodą w konstruowaniu systemów komputerowych. Sprawą, o której warto wspomnieć, jest niekompatybitność kart dźwiękowych PCI ze starszym oprogramowaniem dła DOS-a. Nie obsługują one kanałów DMA w ten sam sposób, co ich odpowiedniki w standardzie ISA. Jedynym rozwiązaniem w takim wypadku jest zainstałowanie oprogramowania 32-bitowego. Wiete kart PCI jest dostarczanych wraz z programami emutującymi ich starsze wersje, jednak nie gwarantują one bezpro-btemowej pracy.
Karty adapterów SCSI Karty adapterów SCSI wymagają znacznie więcej zasobów niż pozostałe urządzenia, może za wyjątkiem kart dźwiękowych. Typowy adapter SCSI wymaga pojedynczej Unii IRQ, jednego kanału DMA i okreśłonego zakresu adresów portów, a także 16 kB wołnej przestrzeni w górnej pamięci RAM na potrzeby swojej pamięci ROM oraz ewentuałnego „brudnopisu" w pamięci RAM. Na szczęście, typowe karty adapterów SCSI są proste w konfiguracji i zmiana dowołnego z ich ustawień nie powinna mieć wpływu na wydajność oprogramowania. Przed rozpoczęciem instaiacji adaptera SCSI nałeży przejrzeć jego dokumentację i upewnić się, że wymagane przez kartę łinie IRQ, kanały DMA, adresy portów i adresy w pamięci RAM są dostępne. Jeżełi jakiś z tych zasobów jest już wykorzystywany przez urządzenie, to posługując się sporządzonym uprzednio szablonem nałeży przy-dziełić alternatywne zasoby, tak by nie dopuścić do powstania konfliktu jeszcze przed włożeniem karty adaptera SCSI do gniazda.
Karty sieciowe Sieci komputerowe stają się coraz bardziej popułarne. Typowa karta sieciowa nie wymaga tak wiełu zasobów jak pozostałe karty tu opisywane, jednak potrzebuje przynajmniej pewnej iłości adresów w przestrzeni wejścia/wyjścia oraz pojedynczego przerwania. Większość kart sieciowych wymaga także 16 kB wolnej górnej pamięci RAM jako bufora dła przesyłanych danych. Podobnie jak w przypadku innych kart, należy się upewnić, że przyznane zasoby nie są współdzielone z innymi urządzeniami.
Karty portów szeregowych Karty takie mają co najmniej dwa porty szeregowe. Każdy z nich wymaga pojedynczego przerwania i pewnej ilości adresów w przestrzeni wejścia/wyjścia. Z adresami nie ma raczej probłemów, ponieważ wstępnie zdefiniowano ich zakresy dła czterech portów COM. Istotnym problemem są przerwania. W większości starszych kart wszystkie porty
205
powyżej drugiego współdzietą przerwania z pierwszymi dwoma portami. Taka sytuacja jest nieprawidłowa i na pewno spowoduje probtemy z oprogramowaniem pracującym w systemie Windows czy OS/2. W przypadku takich typów kart naieży się upewnić, że każdy port szeregowy ma przyznany niepowtarzatny zakres adresów portów i, co ważniejsze, unikatowe przerwanie. Ponieważ portów szeregowych wymaga duża łiczba urządzeń dołączanych do współczesnych komputerów PC, a ilość portów możłiwych do wykorzystania jest ograniczona przez strukturę systemu przerwań, pochodzącą jeszcze z czasów pierwszych komputerów IBM PC, dostępne są specjatne karty z portami COM, które umożtiwiają przypisanie unikatowego przerwania IRQ każdemu portowi szeregowemu. Na przykład, można pozostawić portom COM1: i COM2: domyślne wartości IRQ4 i IRQ3, natomiast port COM3: ustawić na IRQ10, a COM4: na IRQ12 (pod warunkiem, że na płycie głównej komputera nie ma osobnego portu myszy). Wiele spośród nowszych kart - np. oferowanych przez firmę Byte Runner Technotogies - pozwala na „intetigentne" współdzielenie przerwań przez poszczególne porty. W niektórych przypadkach możtiwe jest skonfigurowanie do 12 portów COM bez wystąpienia konfliktów. Informację o tym, czy dana karta dopuszcza automatyczne bądź też „inteligentne" współdzielenie przerwań, można uzyskać u jej producenta. Chociaż większość probłemów z instalacją większej łiczby portów szeregowych dotyczy współdzielenia przerwań, to na uwagę zasługuje również pewien probierń z adresami tych portów. Otóż wieie kontroterów nowszych typów kart SVGA o wysokiej wydajności, takich jak S3 czy ATI, wykorzystuje pewne dodatkowe adresy portów, które mogą spowodować konflikt ze standardowymi adresami portów wykorzystywanymi przez COM4:. W omawianej przykładowej konfiguracji komputera karta graficzna ATI wykorzystuje niektóre dodatkowe adresy portów, zwłaszcza 2EC-2EF. Jest to pewien probierń, ponieważ port COM4: jest standardowo przypisany adresom 2E8-2EF, które zachodzą na adresy portów karty graficznej. Karta graficzna jest zazwyczaj fabrycznie ustawiona na okreśtone zasoby, tak więc trzeba będzie aibo zmienić ustawienia portu COM4: na niestandardowe, albo po prostu wyłączyć port COM4: i ograniczyć się do trzech portów szeregowych. Jeżeli karta pozwata na niestandardowe ustawienia adresów portów szeregowych, to trzeba się upewnić, że takie ustawienia nie spowodują konfliktu z inną kartą. Ponadto natęży o takich ustawieniach poinformować wszystkie programy bądź sterowniki, np. te w systemie Windows. Prawidłowo zainstalowana i skonfigurowana karta portów szeregowych umożłiwia korzystanie z wiełu urządzeń podłączonych do różnych portów COM i działających jednocześnie. Np. możtiwe jest jednoczesne korzystanie z myszy, modemu, ptotera czy drukarki szeregowej.
USB (Universał Seria! Bus) Porty USB znajdują się na większości płyt głównych, jednak dopiero Windows 98 poprawnie je obsługuje. Niestety, porty te odbierają nam następne wotne przerwanie IRQ z dość krótkiej ich łisty. Dtatego czasem okazuje się konieczne zrezygnowanie z jakiegoś portu szeregowego tub równoległego, aby było możłiwe obsłużenie portu USB.
206
Jeże)i nie używasz urządzeń USB. powinieneś wyłączyć ten port używając programu konfiguracyjnego zawartego w pamięci CMOS (setup). W przyszłości, gdy do tego portu będziemy podłączać ktawiatury, myszy, modemy, drukarki itd., brak wotnych przerwań stanie się mniej dokuczłiwy.
Inne karty Niektóre karty video są dostarczane wraz z oprogramowaniem pozwałającym na wykorzystanie ich specjałnych możłiwości, takich jak powiększona powierzchnia robocza ekranu, przełączanie trybów graficznych w łocie itp. Niestety, to oprogramowanie wymaga, żeby karta rezerwowała przerwanie. Dłatego, mimo tych usprawnień, załecam zrezygnowanie ze stosowania takich rozwiązań, zużywających jedno przerwanie więcej. Innym rodzajem kart rozszerzeń, także związanym z grafiką, są dekodery MPEG, które działają jako dodatek do karty graficznej. Są używane głównie do edycji i odtwarzania fiłmów DVD. Zużywają one jednak znowu cenne zasoby systemu.
Komputery Plug and Play Pojawienie się specyfikacji Pług and Płay (PnP) można okreśłić mianem rewolucji w dziedzinie interfejsów komputerowych. Urządzenia PnP po raz pierwszy pojawiły się w sprzedaży w 1995 roku, a obecnie załety tego rozwiązania możemy wykorzystać w większości nowych komputerów. Użytkownicy PC musiełi się zmagać z przełącznikami DIP czy zworkami za każdym razem, kiedy chciełi dołączyć do komputera jakieś nowe urządzenie. Rezułtatem tego były częste konflikty w dostępie do zasobów i nie działające karty. PnP nie jest całkowicie nową koncepcją. Idea ta była zasadniczą cechą interfejsów MCA i EISA, jednak ograniczona użyteczność tych magistrałi spowodowała, że nigdy nie stały się one standardem w branży. Z tego powodu większość użytkowników PC musiała nadał martwić się o adresy portów, kanały DMA czy ustawienia IRQ. Obecnie jednak, kiedy dostępne są karty PnP dła interfejsów ISA, PCI, SCSI. IDE czy PCMCIA, konfiguracja sprzętowa wołna od kłopotów jest w zasięgu ręki każdego nabywcy nowego komputera PC. Oczywiście to, że jest ona w zasięgu ręki, niekoniecznie oznacza, że każdy komputer jest do tego przygotowany. Aby urządzenia PnP funkcjonowały poprawnie, niezbędne jest wyposażenie komputera w następujące ełementy: •
Sprzęt PnP
•
BIOS PnP
•
System Operacyjny PnP (opcjonalnie)
Wymagane jest, aby każdy z tych trzech ełementów był kompatybiłny ze specyfikacją PnP, czyli spełniał jej wymogi.
207
Sprzęt PnP Sprzęt PnP to zarówno komputer, jak i karty rozszerzające. Nie oznacza to jednak, że nie można korzystać ze starych kart ISA (określanych mianem legacy cards - dosłownie „karty pozostawione w spadku") w komputerze PnP. Można z nich nadat korzystać, ponieważ BIOS PnP automatycznie przydzieta kartom PnP zasoby, uwzględniając obecność starszych typów kart. Karta PnP komunikuje się z BlOS-em komputera oraz z systemem operacyjnym w cetu przekazywania informacji o potrzebnych zasobach. W zamian za to, BIOS i system operacyjny rozwiązują konflikty (tam, gdzie to możliwe) i informują kartę, z jakich zasobów powinna korzystać. Następnie karta modyfikuje swoją konfigurację w celu dopasowania jej do przydzielonych zasobów.
BIOS PnP Dla większości użytkowników starszych maszyn kompatybilność ze specyfikacją PnP oznacza konieczność uaktualnienia BIOS-u albo zakup nowego komputera wyposażonego w BIOS PnP. Aby BIOS mógł być kompatybilny z PnP, musi obsługiwać 13 dodatkowych funkcji systemowych, z których może korzystać system operacyjny PnP. Specyfikacja BIOS-u PnP została opracowana wspólnie przez firmy Compaq, Inte] i Phoenix Technologies. Funkcje BIOS-u PnP zostały zaimplementowane w komputerze poprzez rozszerzony zbiór procedur testowych POST. BIOS jest odpowiedzialny za identyfikację, izolację i ewentualną konfigurację urządzenia PnP. Cel ten osiąga w następujących krokach: 1.Wyłączenie wszystkich konfigurowalnych urządzeń na płycie głównej i na osobnych kartach. 2.Identyfikacja urządzeń ISA PnP i PCI PnP. 3.Opracowanie wstępnej mapy przydziału zasobów dla portów, przerwań IRQ i pamięci RAM. 4.Włączenie urządzeń wejścia/wyjścia. 5.Sprawdzenie pamięci ROM urządzeń ISA. 6.Skonfigurowanie urządzeń IPL (initial-program-load), wykorzystywanych później przy inicjowaniu komputera. 7.Włączenie urządzeń konfigurowalnych poprzez poinformowanie ich o przyznanych im zasobach. 8.Rozpoczęcie inicjowania komputera. 9.Przekazanie kontrołi do systemu operacyjnego.
208
System operacyjny PnP Ta część specyfikacji PnP może być zaimplementowana w jednym z nowszych systemów operacyjnych, takich jak OS/2, Windows albo rozszerzenia DOS-a. Rozszerzenia takie powinny być znane wszystkim użytkownikom DOS-a, gdyż przez wie!e lat ich stosowanie w systemie DOS umożliwiało obsługę napędów CD-ROM. Obecnie d!a większości systemów operacyjnych dostępne jest oprogramowanie rozszerzające i można się spodziewać, że wszystkie nowe systemy operacyjne przeznaczone dla komputerów PC będą miały wbudowaną obsługę PnP. W przypadku systemu Windows NT 4.0 sterowniki PnP mogą, lecz nie muszą być ładowane automatycznie. Jeżeli nie są, to odpowiedni sterownik można odnateźć na płycie CD-ROM Windows NT 4.0 CD w katatogu DRVL1B\PNPISA\. W podkatałogu odpowiadającym instalowanej karcie znajduje się sterownik PNPISA.INF, który natęży zainstałować. Do systemu operacyjnego natęży informowanie użytkowników o wystąpieniu konfliktów, które nie mogą zostać rozwiązane przez BIOS. W zależności od stopnia złożoności systemu operacyjnego, użytkownik może ręcznie (tzn. śtedząc sytuację na ekranie monitora) skonfigurować złe działające karty albo wyłączyć komputer i ręcznie ustawić przełączniki na karcie. W czasie ponownego inicjowania komputer sprawdza, czy nie występują jeszcze jakieś konflikty albo czy nie pojawiły się nowe. Konflikty te pozostawiane są do rozwiązania użytkownikowi. Powtarzanie powyższej akcji pewną ilość razy pozwała na rozwiązanie wszystkich konfliktów w komputerze. Specyfikacja PnP podlega ciągłym zmianom. System operacyjny Windows 95 wymaga obecności BIOS-u ISA PnP w wersji co najmniej l.Oa. Jeżeli BIOS w komputerze nie jest najnowszą wersją, to sugeruję jego uaktualnienie. Większość komputerów PnP wyposażona jest w pamięć Flash ROM, dzięki czemu możliwe jest ściągnięcie pliku z najnowszą wersją BIOS-u od producenta i uruchomienie odpowiedniego programu dokonującego uaktualnienia BIOS-u.
209
Rozdział 6.
Mikroprocesory i chipsety płyt głównych ,, Mózgiem" komputera jest proc^or, zwany również y'eJno^q cenrra/nq (ang. Central Procesor Unit - CPU). Procesor w komputerze zajmuje się wykonywaniem obliczeń i przetwarzaniem danych - wyjątkiem są operacje matematyczne w komputerach z osobną jednostką koprocesora arytmetycznego. Procesor stanowi z pewnością najdroższą część komputera. We wszystkich komputerach PC znajdują się procesory kompatybilne z układami rodziny Intel, chociaż procesory są również produkowane przez inne firmy: AMD, IBM czy Cyrix. W tej części rozdziału będzie można znaleźć dużo szczegółów technicznych na temat procesorów, a także próbę odpowiedzi na pytanie, dtaczego niektóre procesory potrafią wykonywać więcej operacji w jednostce czasu niż inne.
Parametry procesorów Często słyszy się różne mytne opinie związane z parametrami procesorów. W tej części rozdziału zostaną omówione niektóre parametry, między innymi rozmiary magistral: danych i adresowej, jak również szybkość działania procesora. W kolejnym podroz-dziate zostaną przedstawione parametry techniczne prawie wszystkich spotykanych obecnie procesorów. Cechami wszystkich procesorów są dwa czynniki. Mianowicie ich „szerokość" oraz „szybkość". Prędkość jest prostą rzeczą do zdefiniowania. Jest to po prostu ilość taktów zegara przypadających na jedną sekundę. Podaje się ją w megahercach (MHz). „Szerokość" jest trudniejsza do jednoznacznego określenia. Są mianowicie trzy główne elementy procesora, które określamy „ich szerokością": • Magistrata danych oraz magistrala wejścia-wyjścia, •
Rozmiar wewnętrznych rejestrów,
•
Magistrala adresowa.
210
Tabela 6.1. Parametry procesorów Intel
Procesor 8088 8086 286 386SX 386SL 386DX 486SX 486SX2 487SX 486DX 486SL** 486DX2 486DX4 Pentium OD Pentium 60/66 Pentium 75-200 !\Mitium MMX Pro Pentium Pentium [t MMX Pentium t) Cełeron H Pentium Xenon
Mnożni k częstotli wości 1x 1x ]X tx 1x !x ]x 2x tx ]x )x 2x 2-3 x
Rozmiar rejestrów Napięcia wewnęzasiiania trznych 5V )6-bitowe 5V 16-bitowe 5V 16-bitowe 5V 32-bitowe 3,3 V 32-bitowe 5V 32-bitowe 5V 32-bitowe 5V 32-bitowe 5V 32-bitowe 5V 32-bitowe 3.3 V 32-bitowe 5V 32-bitowe 3,3 V 32-bitowe
Szerokoś ć magistra!! danych 8-bitowa )6-bitowa 16-bitowa 16-bitowa !6-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa
Szerokoś ć magistra!! adresowe j 20-bitowa 20-bitowa 24-bitowa 24-bitowa 24-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa 32-bitowa
Prze strzeń adresowa ] MB ] MB t6MB 1 6 MB !6MB 4 GB 4 GB 4 GB 4 GB 4 GB 4 GB 4 GB 4 GB
2,5 x )x t, 5-3 x ],5-3x 2-3 x 3,5-5 x 3,5-5 x
5V 5V 3,3 V*** t.8-2,8V 2,9 V t. 8-2.8 V !,8-2,8 V
32-bitowa 64-bitowa 64-bitowa 64-bitowa 64-bitowa 64-bitowa 64-bitowa
32-bitowa 32-bitowa 32-bitowa 32-bitowa 36-bitowa 36-bitowa 36-bitowa
4 GB 4 GB 4 GB 4 GB 64 GB 64 GB 64 GB
3.5-5 x
]. 8-2.8 V 32-bitowe 64-bitowa 36-bitowa 64 GB
32-bitowe 32-bitowe 32-bitowe 32-bitowe 32-bitowe 32-bitowe 32-bitowe
211
Wewnętrz na pamięć cache LI Typ pamięci cache LI Nie Nie Nie Nie OkB* WT Nie 8kB WT 8kB WT 8kB WT 8kB WT 8kB WT 8kB WT 16 kB WT 2* 16kB WB 2x8kB WB 2«8kB WB 2 ^ )6 kB WB 2*8kB WB 2 x )6 kB WB 2xi6kB WB 2« 16kB WB
Prędkoś ć Pamięć pamięci cache L2 cache L2 256 kB**** Wewnętrzna 512kB Wewnętrzna 0 kB Wewnętrzna 1 MB/ 2 MB Wewnętrzna
Wbudow ana jednostka FPU Nie Nie Nie Nie Nie Nie Nie Nie Tak Tak Opcjonalnie Tak Tak Tak Tak Tak Tak Tak Tak Tak Tak
Liczba tranzystorów 29000 29000 134000 275000 855000 275000 1815000 1815000 1200000 1200000 1400000 1 100000 1600000 310000 0 3100000 3300000 4000000 5500000 7500000 7500000 7500000
Data pojawienia się Czerwiec 1979 Czerwiec 1978 Luty 1982 Czerwiec 1988 Październik 1990 Październik 1985 Kwiecień 1991 Kwiecień 1994 Kwiecień 1991 Kwiecień 1989 Listopad 1992 Marzec 1992 Luty 1994 Styczeń 1995 Marzec 1993 Marzec 1994 Styczeń !997 Wrzesień 1995 Maj 1997 Kwiecień 1998 Kwiecień 1997
212
Szybkość procesora Pojęcie szybkości procesora bywa przyczyną wielu nieporozumień. W tym podrozdziałe zostaną najpierw podane na ten temat ogólne dane, a następnie przedstawię dokładniejsze informacje dotyczące procesorów Inteł. Miarą szybkości komputera jest częstotliwość zegara, mierzona zazwyczaj liczbą cykli na sekundę. Częstottiwość zegara jest zależna od oscytatora, wykonanego z kryształu kwarcu zawartego w małej obudowie. Po dołączeniu napięcia, oscytator zaczyna drgać harmonijnie z częstottiwością zależną od rozmiaru i kształtu oscylatora. Oscylacje z kryształu rozchodzą się jako przebieg zmieniający się w takt pracy kryształu. Powstały w ten sposób sygnał zmiennoprądowy jest sygnałem zegarowym taktującym procesor. Obecnie większość komputerów pracuje z częstotliwością milionów cykli na sekundę, czy H ich szybkość wyraża się w megahercach (MHz). (Jeden Hertz odpowiada jednemu cyktowi na sekundę). Nazwa Hertz pochodzi od nazwiska niemieckiego fizyka Heinricha Rudolfa Hertza. W 1885 roku Hertz eksperymentalnie potwierdził teorię elektromagnetyzmu, według której światło jest formą promieniowania elektromagnetycznego i zachowuje się jak fala. Pojedynczy cyk) jest dła procesora najmniejszym odcinkiem czasu. Każda czynność procesora wymaga co najmniej jednego, a najczęściej większej liczby cykłi. Np. procesor 8086, aby przesłać dane do lub z pamięci, potrzebuje czterech cykli wraz z dodatkowymi cyktami oczekiwania. CyM ccze/ci'wan;'a (ang. wa;'? .sfafe) jest tyknięciem zegara, w którym procesor nie wykonuje żadnej operacji, dzięki czemu wolniejsze podzespoły nie pozostają „w tyłe". Procesor 286 realizuje operację przesyłu danych w czasie tytko dwóch cykli i jednego cyklu oczekiwania. Czas wykonania pojedynczej instrukcji jest różny dla różnych procesorów. W oryginalnych procesorach 8086 i 8088 wykonanie jednej instrukcji zajmowało przeciętnie 12 cykli. W procesorach 286 i 386 czas ten uległ skróceniu do 4,5 cykła, a w 486 dalszemu skróceniu do 2 cykli. Procesor Pentium zawiera dwie kolejki rozkazów oraz dodatkowe mechanizmy, dzięki którym możłiwe było dalsze skrócenie czasu wykonywania pojedynczej instrukcji do jednego tub dwóch cykli. Techniki zastosowane w procesorach Pentium II i Pentium Pro pozwatają wykonać do trzech instrukcji w jednym cyklu zegara. Różnice pomiędzy procesorami w czasie wykonywania instrukcji (wyrażanym w cyklach) utrudniają dokonanie porównania wydajności komputerów tylko na podstawie częstotliwości zegara procesora (tj. ticzby cykli na sekundę). Np. jedną z przyczyn osiągnięcia dużego wzrostu szybkości działania procesora 486 w porównaniu z 386 było zmniejszenie do dwóch liczby taktów zegara potrzebnych do wykonania pojedynczej instrukcji. Tak więc 133-megahercowe 486 (takie jak AMD 5x86-133) nie dorównuje 75megahercowemu Pentium. Pentium II jest natomiast szybsze od zwykłego Pentium o następne 50%. Tak więc porównując efektywność procesorów można by powiedzieć, że 500-megahercowe Pentium H jest porównywalne z teoretycznym Pentium 750 MHz, który odpowiada 1400-megahercowemu 486, który znowu odpowiada 2800megahercowym 386 i 286,
213
któremu w końcu odpowiadałoby 5600-megahercowe 8088. Biorąc pod uwagę fakt, że oryginalny procesor 8088 był taktowany sygnałem 4,77 MHz, dzisiejsze systemy sąok. 1000 razy szybsze od produkowanych niecałe 20 lat temu. Tak więc trzeba zachować ostrożność przy porównaniach prędkości bazujących tyłko na zwykłym odejmowaniu megaherców. Rodzi się pytanie, dlaczego dwa procesory taktowane zegarem o tej samej częstotliwości mogą się różnić prędkością działania? Odpowiedź jest prosta: procesory te mają różną wydajność. Firma Intel opracowała specjalny rodzaj testów obliczających względną wydajność procesora. Test ten nosi nazwę Indeksu ICOMP 2.0 (Intel Comparative Microprocessor Performance), a jego ostatnie wersje pozwalają na pomiar wydajności komputerów 32-bitowych. Wartości tego indeksu dla różnych typów procesorów zostały zebrane w tabeli 6.2 Tabeta 6.2. Wartości Indeksu Intel ICOMP 2.0 Typ procesora Pentium 75 Pentium 100 Pentium 120 Pentium 133 Pentium 150 Pentium 166 Pentium 200 Pentium-MMX 166 Pentium-MMX 200 Pentium-MMX 233 Pentium Pro Pentium Pro Pentium II 233 Pentium II 266 Pentium II 300 Pentium II 333 Pentium II 350 Pentium II 400
indeks ICOMP 2.0 67 90 100 111 114 127 142 160 182 203 197 220 267 303 332 366 386 440
Wartość Indeksu ICOMP 2.0 została ustalona na podstawie różnych niezależnych testów i jest miarodajną informacją o względnej wydajności procesora. Indeks ten uwzględnia rozkazy całkowite i zmiennoprzecinkowe, a także operacje multimedialne.
214
Następnym czynnikiem, który może w niektórych sytuacjach mytić. jest fakt, że praktycznie wszystkie dzisiejsze procesory pracują z wietokrotnością prędkości płyty głównej. Na przykład Petntium II 333 jest taktowane pięciokrotnie szybciej niż 66 MHz płyty głównej, podczas gdy Pentium H 400 MHz pracuje z czterokrotną prędkością płyty głównej, taktowanej sygnałem 100 MHz. W nowszych komputerach znajduje się generator częstottiwości, który jest częścią układu kontrotera płyty głównej. Generator ten ustata szybkości pracy procesora i płyty głównej. Większość płyt z procesorem Pentium posiada 3 tub 4 możliwe ustawienia szybkości pracy. Obecnie wykorzystywane procesory są dostępne w wietu wersjach, pracujących z częstottiwościami zateżnymi od częstottiwości płyty głównej. Np. większość procesorów Pentium pracuje z częstottiwością, która jest wietokrotnością częstottiwości płyty głównej. Przykładowe wartości częstottiwości pracy płyt i procesorów Pentium przedstawiono w tabeli 6.3. Tabela 6.3. Szybkość pracy procesorów i płyt głównych firmy Intel Typ procesora / częstotiiwość Pentium 60 Pentium 66 Pentium 75 Pentium 90 Pentium tOO Pentium 120 Pentium 133 Pentium 150 Pentium / Pentium Pro / MMX 1 /66 Pentium Pentium Pro 180 Pentium / Pentium Pro 200 Pentium-MMX / Pentium 11 233 Pentium 11 266 Pentium 11 300 Pentium 11 333 Pentium 11 350 Pentium 11 400 Pentium 1! 450
Mnożnik częstottiwości 1x tX 1,5 x 1,5 x 1,5 x 2x 2x 2,5 x 2,5 x 3x 3x 3,5 x 4x 4,5 x 5x 3,5 x 4x 4,5 x
Częstotiiwosc płyty głównej 60 66 50 60 66 60 66 60 66 60 66 66 66 66 66 100 100 100
Jeżeti oprócz częstottiwości zegara także pozostałe parametry dwóch porównywanych ze sobą procesorów - takie jak typ procesora, ticzba cykli oczekiwania (cykti pustych) oraz szerokość magistrati danych - są takie same, to można porównywać obydwa komputery stosując jako kryterium częstottiwość procesora. Na ostateczną szybkość komputera może mieć duży wpływ także np. wewnętrzna struktura modułów pamięci.
215
Opracowując procesor, producent testuje go pod względem szybkości oraz wpływu temperatury i ciśnienia. Po przejściu serii testów procesor zostaje oznaczony jako przeznaczony do pracy z okreśtoną częstottiwością, w zakresie wartości temperatury i ciśnienia, z jakimi może mieć do czynienia w czasie normalnej pracy. Przyjęto dość prosty sposób oznaczania szybkości procesora. Na przykład na obudowie procesora w jednym z moich komputerów znajduje się następujące oznaczenie: A80486DX2-66 Litera A według nomenktatury firmy Intet oznacza, że układ jest wykonany w formacie CPGA (Ceramic Pin Grid Array), tub też oznacza określony typ obudowy układu. Oznaczenie 80486DX2 pozwała na zidentyfikowanie układu jako procesora 486DX pracującego z podwojoną częstotłiwością płyty głównej. Liczba -66 oznacza, że maksymałna częstotiiwość pracy procesora wynosi 66 MHz. Ponieważ częstotłiwość ta jest podwojoną częstotłiwością płyty głównej, maksymatna częstotłiwość tej ostatniej wynosi 33 MHz. Układ ten może poprawnie pracować jedynie w tych komputerach, w których procesor pracuje z maksymałną częstotłiwością 66 MHz. Na przykład w komputerze z płytą główną 25 MHz pracowałby z częstotłiwością 50 MHz. Większość płyt głównych można ustawić w tryb pracy z częstotłiwością 40 MHz i wówczas procesor DX2 pracowałby z wewnętrzną częstotłiwością 80 MHz. Wielkość ta przekraczałaby o 14 MHz dopuszczałną częstotłiwość, dłatego wiele procesorów nie działałoby wcale albo działałoby jedynie przez krótki czas. Przekonałem się jednak, że większość nowszych modełi procesorów oznaczonych -66 pracuje w sposób poprawny (chociaż trochę się grzeją!) przy ustawieniu 40/80 MHz. Takie „podkręcanie" (ang. overclocking) procesora może być wykorzystywane jako prosty, tani sposób przyśpieszenia pracy komputera. Nie zalecałbym tego jednak w przypadku komputerów przeznaczonych do tzw. zadań, w których niezawodność pracy jest jednym z najważniejszych czynników. Przekroczenie dopuszczałnych parametrów pracy komputera może często objawić się nieprzewidzianym zachowaniem w krytycznych sytuacjach. Osoby zainteresowane „podkręcaniem" procesora powinny zajrzeć na internetową stronę http://www.sysopt.com/overc.html Można tam znaleźć m.in. pytania najczęściej zadawane przez użytkowników (FAQs), a także opisy działań użytkowników (stale uaktuałniane), którym udało się (lub czasami nie) „podkręcić" procesor. Czasami oznaczenie procesora nie wskazuje w sposób poprawny na jego częstotliwość pracy. Na przykład, w starszych modełach 8086 cyfra -3 oznaczała częstotłiwość pracy równą 6 MHz. Taki sposób oznaczania spotyka się często w niektórych starszych typach procesorów, wyprodukowanych przed wejściem w życie standardów oznakowania. Innym przykładem takiego mylnego oznakowania może być przypadek procesorów Cy-rix/lBM 6x86. Wprowadzono tutaj oznaczenie PR (Performance Rating), które nie odpowiada częstotliwości taktowania procesora. Za to przedstawia teoretyczną sprawność procesora - numer oznacza liczbę megaherców, z jaką byłby taktowany procesor Inteł Pentium o tej samej wydajności. Tak więc procesor Cyrix/IBM 6x86MX-PR200 pracuje z prędkością ł66 MHz (2,5 x 66 MHz).
216
Czasami producent umieszcza nad procesorem radiator. który uniemożliwia odczytanie wartości częstotliwości procesora wydrukowanej na obudowie. (7?ar/;'<3;or jest metalowym elementem odprowadzającym ciepło z urządzenia elektronicznego.) Większość procesorów pracujących z częstotliwością 50 MHz lub wyższą powinna być wyposażona w radiator w celu zabezpieczenia procesora przed przegrzaniem.
Magistrala danych Najczęściej opisuje się procesor za pomocą rozmiaru jego magistrali danych i adresowej. M6n?As7/Y.!/<3 to po prostu zbiór ścieżek, wspólnych dla kilku urządzeń, przewodzących sygnały elektryczne. Dobrą analogią jest para kabli biegnących z jednego końca domu do drugiego. Jeżeli do jednego końca kabli podłączy się generator napięcia zmiennego 110 V, a w ustalonych miejscach przewodów przyłączy się gniazdka, to powstanie magistrala. Nie ma znaczenia, do którego gniazdka włożymy wtyczkę, bo w każdym będzie ten sam sygnał - w tym przypadku napięcie zmienne 110 V. Dowolne medium transmisyjne, które ma więcej niż dwa gniazdka na końcach, może być uważane za magistralę. W standardowym komputerze można wyróżnić kilka magistral, a typowy procesor ma dwie magistrale, po których przenoszone są dane i informacje o adresach w pamięci. Są to odpowiednio magistrala danych i magistrala adresowa. Kiedy mowa jest o magistrali procesora, to najczęściej chodzi o magistralę danych. Na magistralę tę składają się końcówki procesora wykorzystywane do przesyłów danych. Im więcej sygnałów przenosi magistrala w jednostce czasu, tym większa jest ilość danych, którą można przesłać przez magistralę w cyklu pracy magistrali i tym szybsza jest magistrala. Dane w komputerze są przesyłane jako informacja cyfrowa, przyjmująca jedną z dwóch wartości w dyskretnych przedziałach czasu. W czasie trwania interwału pojedyncza ścieżka może być w stanie napięcia 5 V, oznaczającego jedynkę logiczną, albo O V, oznaczającego zero logiczne. Im więcej linii sygnałowych wchodzi w skład magistrali, tym więcej można po niej przesłać bitów w jednostce czasu. Na przykład procesor 286, który ma 16 końcówek służących do wysyłania i odbierania danych, ma 16-bitową magistralę danych. Procesor 32-bitowy, np. 486, ma takich końcówek dwa razy więcej niż procesor 16-bitowy. 32-bitowa magistrala prześle dwa razy tyle informacji, co magistrala 16-bitowa przy tej samej częstotliwości jej pracy. Nowoczesne procesory, jak Pentium, mają magistralę danych 64-bitową. Dobrą analogią ilustrującą przepływ informacji przez magistralę jest autostrada, po której poruszają się samochody. Jeżeli autostrada ma tylko jeden pas ruchu w każdym kierunku, to w jednostce czasu na danym jej odcinku może się poruszać tylko jeden samochód. Jeżeli chcemy zwiększyć przepustowość autostrady, to możemy dodać kolejny pas ruchu, dzięki czemu w określonym czasie przez dany odcinek autostrady przejedzie dwa razy więcej samochodów. Procesor 8-bitowy można porównać do drogi jednopasmo-wej, ponieważ w jednostce czasu może przesłać tylko jeden bajt danych (jeden bajt to osiem bitów). Procesor 16-bitowy, który w jednostce czasu może przesłać 16 bitów, można przyrównać do autostrady dwupasmowej. Aby jeszcze bardziej zwiększyć przepustowość autostrady, można ją zaprojektować jako drogę czteropasmową. Odpowiadałoby to magistrali 32-bitowej, która umożliwia przesłanie czterech bajtów danych w jednostce czasu.
217
Podobnie, jak opisujemy autostradę ilością pasów ruchu, można opisać procesor za pomocą rozmiaru jego magistrali danych. Kiedy komputer jest reklamowany jako 16- czy 32-bitowy, to z reguły oznacza to właśnie rozmiar magistrali danych procesora w komputerze. Pojęcie to z grubsza określa potencjalną wydajność procesora (i co za tym idzie, również całego komputera). W tabeli 6.1 zebrano parametry techniczne procesorów rodziny Intel spotykanych w komputerach IBM PC i kompatybilnych. Parametry te obejmują także rozmiar magistrali danych.
Rejestry wewnętrzne Rozmiar rejestrów wewnętrznych procesora określa ilość informacji, jaką procesor może przetworzyć w jednostce czasu. Obecnie większość zaawansowanych procesorów - od 386 począwszy, a na Pentium skończywszy - posiada rejestry 32-bitowe. Niektóre procesory mają wewnętrzną magistralę danych, po której przenoszona jest informacja pomiędzy elementarnymi komórkami pamięci procesora, zwanymi rą/MfrafMi'. Rozmiar tej magistrali jest różny od szerokości zewnętrznej magistrali danych. Przykładem są procesory 8088 i 386SX, które mają wewnętrzną magistralę danych o rozmiarze dwukrotnie większym od zewnętrznej. Taka koncepcja, określana często jako „hybrydowa", jest popularna w tańszych wersjach procesorów. Np. procesor 386SX może przesyłać dane pomiędzy swoimi rejestrami w postaci pełnych słów 32-bitowych, jednak komunikuje się ze światem zewnętrznym za pośrednictwem magistrali o szerokości tylko 16 bitów. Taka struktura umożliwia projektantom komputera opracowanie taniej płyty głównej z magistralą 16-bitową, przy jednoczesnym zachowaniu kompatybilności z 32-bitowym procesorem 386. Wewnętrzne rejestry mogą mieć większy rozmiar niż magistrala danych, a to oznacza, że do załadowania danych do rejestru potrzebne są dwa cykle zegarowe, a dopiero potem dane mogą być przetwarzane. Np. procesory 386SX i 386DX mają 32-bitowe rejestry wewnętrzne, lecz procesor 386SX do załadowania danych z magistrali do rejestru potrzebuje dwóch „oddechów", podczas gdy 386 potrafi to samo zadanie zrealizować za jednym „tchnieniem". Tak samo odbywa się przesył informacji z rejestrów procesora na zewnętrzną magistralę danych. Przykładem odwrotnej koncepcji jest procesor Pentium. Ma on 64-bitową magistralę danych, ale tylko 32-bitowe rejestry wewnętrzne. Brzmi to zagadkowo, dopóki się nie okaże, że procesor Pentium posiada dwa wewnętrzne potoki (ang. pipelines), które kolejkują kody pobieranych instrukcji. Pod wieloma względami procesor Pentium przypomina dwa procesory 32-bitowe w jednej strukturze. 64-bitowa magistrala danych w tym procesorze umożliwia wydajne ładowanie danych z pamięci do wewnętrznych rejestrów. Zastosowanie wielu potoków zostało nazwane mianem architektury super-skalarnej (superscalar architecture). Bardziej zaawansowane procesory Pentium Pro i Pentium H mają sześć potoków, l choć niektóre z nich mają określone zastosowania, procesor może wykonywać do trzech instrukcji w jednym cyklu zegara.
218
Magistrała adresowa Magistrala adresowa jest zbiorem tinii przenoszących informacje o adresie w pamięci, pod który są przesyłane dane tub spod którego dane są pobierane. Podobnie jak w przypadku magistrali danych, pojedyncza Unia magistrati przenosi jeden bit informacji. Bit ten stanowi pojedynczą cyfrę adresu. Im więcej tinii przenoszących informację o adresach ma magistrata, tym większy obszar pamięci można zaadresować. Rozmiar magistrati adresowej okreśta maksymalną itość pamięci dostępną dta procesora. Do zobrazowania zasady funkcjonowania magistrati adresowej również pomocna jest anatogia z ruchem drogowym. Jeżeti magistratę danych potraktujemy jak drogę i jeżeli jej rozmiar odpowiada ilości pasów ruchu, to magistrata adresowa oznacza numer domu albo adres domu na uticy. Rozmiar magistrati adresowej odpowiada itości cyfr w numerze adresowym domu. Np. jeżeti numer domu jest dwucyfrowy (w systemie dziesiętnym), to na uticy może być co najwyżej tOO (10 do potęgi drugiej) różnych adresów domów (od 00 do 99). Następna cyfra umożtiwiłaby przypisanie adresów następnym 900 domom. Komputery wykorzystują binarny system pozycyjny (o podstawie 2), co oznacza, że za pomocą binarnych liczb dwucyfrowych można zakodować tytko cztery unikatowe adresy: 00, 01, 10, 1 1 (2 do potęgi 2 równa się 4); za pomocą ticzby trzycyfrowej można zakodować osiem adresów: od 000 do t H (2 do potęgi 3 równa się 8) itp. Na przykład, w procesorach 8086 i 8088 magistrala adresowa ma szerokość 20 bitów, co oznacza, że możtiwe jest zaadresowanie maksymalnie 2 do potęgi 20 czyti 1048576 (l MB) komórek pamięci (bajtów). Tabela 6.4 przedstawia możtiwości adresowe procesorów Intel. Tabela 6.4. Możliwości adresowe procesorów Intel Rodzina procesora 8088/8086 286/386SX 386DXPentium11Pro Pentium
20-bttowa 24-bitowa 32-bitowa 36-bitowa
Bajty
Kilobajty Megabajty Gigabajty
1 048 576 1677721 46 294 967 296 687)947 6736
1024 16386 4 194 304 67 108 864
1 16 4096 65536
4 64
Magistrala adresowa jest niezależna od magistrati danych, a od projektantów mikroprocesora zależy, jaki rozmiar mają obydwie magistrate. Zazwyczaj im większa magistrala danych procesora, tym większa jest również jego magistrata adresowa. Informacja o magistratach na dwa sposoby określa względną moc obliczeniową komputera: rozmiar magistrati danych determinuje transfer danych pomiędzy procesorem a otoczeniem, natomiast szerokość magistrati adresowej określa wielkości obszaru pamięci obsługiwanej przez procesor.
Wewnętrzna (level 1) pamięć podręczna Wszystkie procesory z rodziny Intela, począwszy od 486. zawierają kontroler pamięci cache pierwszego poziomu (Cache Level 1). Układy te posiadały 8 kB (lub więcej) wbudowanej pamięci, pracującej z prędkością taktowania procesora. Jest to w zasadzie normalna pamięć, z tą różnicą, że jest wbudowana w układ procesora, a do tego tak
219
szybka, że potrafi nadążyć za pędzącym procesorem. Jest ona używana do przechowywania najczęściej używanych danych oraz fragmentów kodu. Dzięki temu ograniczono występowanie problemu współpracy procesora z dużo wolniejszą pamięcią RAM, który objawiał się jałowymi taktami oczekiwania. W dzisiejszych nowoczesnych systemach znaczenie pamięci U jest jeszcze większe. Jest to w zasadzie jedyna pamięć na tyte szybka, żeby sprostać wymogom procesora. Praktycznie wszystkie dzisiejsze procesory są taktowane przy użyciu mnożnika. Dia przykładu procesor Pentium H 333 MHz, taktowany sygnałem 333 MHz, współpracuje z płytą główną taktowaną z szybkością 66 MHz. Ponieważ pamięć RAM jest podłączona do płyty głównej, pracuje z prędkością 66 MHz. Jedyną pamięcią ,,333 MHz" w takim systemie jest pamięć procesora - Cache Level 1. W naszym przypadku, procesor ten ma 32 kB tej pamięci, podziełone na dwa osobne bloki po 16 kB. Gdy poszukiwana dana jest już uprzednio wprowadzona do tej pamięci, procesor nie musi na nią oczekiwać - a jedynie po nią sięgnąć - oszczędzając cenny czas. Pamięć cache procesora 486 okreśtana jest jako czfero.sci'c:^owa paw/ęć (ang.ybMr-way M?? HMCMnw cac^f). Pamięć ta jest podzielona na cztery bloki, z których każdy składa się ze 128 lub 256 wierszy po ł6 bajtów. Zasadę działania pamięci czterościeżkowej pamięci asocjacyjnej pomoże nam zrozumieć prosty przykład. W najprostszym przypadku pamięć podręczna jest pojedynczym blokiem pamięci, do którego jest ładowana zawartość określonego obszaru pamięci RAM. Jest to podobne do posługiwania się zakładkami ułatwiającymi odnalezienie konkretnej strony w czytanej książce. Jeżeli główną pamięć RAM przyrównamy do całej książki, to zakładki odpowiadają stronom pamięci RAM przechowywanym w pamięci cache. Postępowanie takie jest skuteczne, jeżeli dane, do których chcemy uzyskać dostęp, znajdują się w obrębie stron oznaczonych zakładkami. Jednak jeżeli chcemy się odwołać do strony, która nie była założona, to zakładki nie mają żadnego zastosowania. Ałternatywnym podejściem jest posługiwanie się wieloma zakładkami, za pomocą których zaznaczamy jednocześnie różne fragmenty książki. W przypadku pamięci cache wiążą się z tym dodatkowe wymagania sprzętowe, a także dodatkowy czas, który jest potrzebny na sprawdzenie wszystkich zakładek, w cełu ustałenia, czy zaznaczają one strony z szukanymi danymi. Każda dodatkowa zakładka zwiększa koszty, tęcz jednocześnie zwiększa szansę znałezienia szukanych stron. Jeżełi w celu ograniczenia kosztów ograniczymy liczbę obszarów zaznaczanych w książce do czterech, to otrzymamy właśnie coś w rodzaju czterościeżkowej asocjacyjnej pamięci cache. Technika ta polega na podziałe dostępnej pamięci cache na 4 obszary, z których każdy przechowuje inne linie danych z pamięci RAM. Wielozadaniowe systemy operacyjne, takie jak OS/2 czy Windows, są przykładami środowisk, w których procesor korzysta jednocześnie z różnych obszarów pamięci, a zastosowanie czterościeżkowej asocjacyjnej pamięci cache powoduje znaczny wzrost wydajności komputera. Zawartość pamięci cache musi zawsze pozostawać zsynchronizowana z zawartością pamięci RAM, tak aby zapewnić, że procesor przetwarza zawsze aktualne dane. Z tego powodu wewnętrzna pamięć cache w procesorach 486 jest pamięcią typu M/ri'fe-77;roMg/7 radic. Oznacza to, że informacja zapisywana przez procesor do pamięci podręcznej jest automatycznie przepisywana do pamięci RAM.
220
Innym rozwiązaniem jest pamięć typu Writel-Back cache, zastosowana po raz pierwszy w procesorach Pentium, w której dalszy wzrost wydajności został osiągnięty dzięki buforowaniu zarówno operacji odczytu, jak i zapisu. Pomimo że wewnętrzna pamięć cache procesorów 486 jest pamięcią typu Write-Through. nic nie stoi na przeszkodzie, aby zastosować dodatkową, zewnętrzną pamięć cache typu Write-Back i otrzymać w ten sposób komputer o jeszcze większej wydajności. Ponadto procesor 486 ma możtiwość buforowania do czterech bajtów danych, zanim informacja ta zostanie zapisana w pamięci RAM, dzięki czemu nie następuje spadek wydajności, kiedy magistrala pamięciowa jest zajęta. Wewnętrzny kontroler pamięci cache procesora prowadzi ,, obserwację" magistrat! pamięciowej komputera w momentach, gdy inne procesory, określane jako moćMy na^rz^Hć', przejmują kontrolę nad magistralą. Proces ten w języku angielskim nosi nazwę Z?M.s ^Moc^/Mg. Jeżeli jakiś moduł nadrzędny dokonuje zapisu do obszaru pamięci, którego kopia jest w danym momencie przechowywana w pamięci cache procesora, to pojawia się brak zgodności danych z pamięci cache z danymi z pamięci RAM. Kontroler pamięci cache oznacza takie dane jako nieprawidłowe i w czasie trwania następnego cyklu dostępu do pamięci ładuje ponownie dane do pamięci podręcznej, zapewniając w ten sposób zachowanie spójności danych. W większości komputerów z procesorem 486 stosowana jest również zewnętrzna pamięć cache drugiego poziomu, zbudowana z bardzo szybkich układów pamięci typu SRAM. Umożliwia to dalsze skrócenie czasu, jaki zajmuje procesorowi oczekiwanie na nadejście danych z pamięci RAM. Zadania pamięci cache drugiego poziomu są podobne do zadań pamięci cache procesora 486 znajdującej się na płycie głównej. Pamięć ta przechowuje informację przesyłaną do procesora, co powoduje skrócenie czasu oczekiwania procesora i wydłużenie czasu, w którym procesor może zająć się przetwarzaniem danych i obliczeniami. Pobieranie informacji z pamięci cache drugiego poziomu jest 0 wiele szybsze niż pobieranie ich z pamięci głównej, ponieważ układy SRAM charak teryzują się bardzo krótkim czasem dostępu - co najwyżej 20 nanosekund (ns). Systemy Pentium są skonstruowane w ten sposób, że pamięć Cache Level 2 znajduje się na płycie głównej. Inne rozwiązanie zastosowano przy produkcji procesorów Pentium Pro oraz Pentium H. Procesory te zawierają pamięć Cache Level 2 wbudowaną w strukturę procesora. Umożliwiono zatem przyśpieszenie działania pamięci Level 2, powyżej szybkości pracy płyty głównej. Przy wzroście prędkości taktującej, skracają się cykle pracy układów. Tak więc większość pamięci SIMM używanych w komputerach Pentium to układy 60 ns, czyli mogące pracować z maksymalną prędkością 16 MHz. Standardowe prędkości dzisiejszych płyt głównych to 66 MHz oraz łOO MHz, a dostępne sąjuż procesory pracujące z prędkością 450 MHz! Z tego właśnie względu zdecydowano się na przeniesienie pamięci Cache Level 2 z płyty głównej na procesor. W tabeli 6.5 przyrównano szybkości pamięci zainstalowanych we współczesnych systemach komputerowych. Jak widać, poziomami pośrednimi we współpracy z szybkim procesorem oraz relatywnie wolnymi pamięciami RAM, sprawiającymi, że procesor może pracować dużo wydajniej i bliżej swoich maksymalnych możliwości, są obie pamięci cache.
221
Tabela 6.5. 486DX 4 Szybkość 100 procesora MHz 10 ns(100 Szybkość cache LI MHz) 30 ns Szybkość Cache L2 (33MHz ) Szybkość płyty 33 MHz Szybkość 60 ns (16 głównej SIMM/DI MHz) MM Rodzaj pamięci FPM SIMM/DI MM Rodzaj procesora
Pentium !! Pentium Pro (1997) 233 MHz 200 MHz 333 MHz 4ns(233 5ns (200 3ns (333 MHz) MHz) MHz) 15ns(66 5ns (200 6ns(167 MHz) MHz) MHz) 66 MHz 66 MHz 66 MHz 60 ns(16 60ns(16 15ns(66 MHz) MHz) MHz) Pentium
FPM/ED FPM/EDO SDRA O M
Pentium !! (1998) 450 MHz 2ns (450 MHz) 4ns(225 MHz) 100 MHz 10ns (100 MHz) SDRAM
Tryby pracy procesorów Wszystkie 32-bitowe procesory Intela, począwszy od 386, potrafią pracować w kitku trybach. Dotyczą one sposobu, w jaki procesor obsługuje pamięć systemową oraz wykonuje zadania na niej operujące. Tryby te są następujące: •
Tryb rzeczywisty (reat modę)
•
Tryb z ochroną danych (protected mode)
•
Tryb wirtualny (wirtualny tryb rzeczywisty – virtual real mode)
Pierwotnie system PC był skonstruowany w oparciu o procesor 8088, który mógł wykonywać 16-bitowe instrukcje i obsługiwać 16-bitowe rejestry wewnętrzne. Używając 20 Unii adresowych mógł obsługiwać l MB pamięci RAM. System operacyjny DOS, oprogramowanie dta DOS, Windows w wersjach od l.X do 3.X były stworzone przy użyciu 16bitowych rozkazów. Były one przewidziane do uruchomienia na tym właśnie procesorze. Późniejsze procesory, jak 286, wykonywały ten sam zestaw instrukcji co procesor 8088, jednak robiły to znacznie szybciej. Innymi słowy - procesory 286 i późniejsze były w pełni kompatybilne z ich pierwowzorem, przez co mogły uruchamiać programy napisane dla ich poprzednika. Tryb 16-bitowy procesorów 8088 i 80286 nazwano trybem rzeczywistym. Oprogramowanie pracujące w tym trybie musiało się zadowolić adresowaniem do l BM pamięci (nie tytko RAM, ate i BIOS-u, pamięci grafiki itd. przyp. tłum.) Oprogramowanie to najczęściej było jednozadaniowe - co oznacza możliwość uruchomienia tylko jednego programu w danej chwiti. Nie istniało żadne zabezpieczenie, uniemożliwiające jednemu programowi niszczenie danych potrzebnych innemu, współegzystującemu w pamięci systemu. Było to rozwiązanie bardzo elastyczne, ale poprzez swoją ełastyczność zgubne - umożliwiało bowiem programom niszczenie się nawzajem. Efekt jest prosty do przewidzenia. System najczęściej się zawieszał.
222
Następcą procesora 286 był procesor 386. Pierwszy w pełni 32-bitowy procesor na rynku komputerów PC. Był to miłowy krok naprzód - nie tytko ze wzgtędu na szybkość, jaką procesor ten oferował. Rozwinął on zbiór operacji wykonywanych przez procesory o nowe rozkazy 32-bitowe, operujące na 32bitowych rejestrach, oraz dodał nowy tryb pracy - tryb z ochroną danych (protected modę). Nazwa sugeruje postęp w dziedzinie uodparniania systemu na przypadkowe błędy programów. I rzeczywiście - procesor ten umożHwił skonstruowanie pierwszych systemów operacyjnych ,,odpornych" na błędy programów. Gdy w pamięci współpracowało kilka procesów i jeden z nich wykonał niedozwotoną operację (na przykład próbę zniszczenia innego procesu, poprzez zapis w przypadkowe miejsce pamięci), w zależności od inwencji programisty, można było taki proces wymazać z pamięci, pozostawiając nietkniętą resztę systemu. Przypuszczając jednak, że czas potrzebny na dostosowanie oprogramowania do nowego sprzętu będzie dość długi, Intel zabezpieczył swój procesor przed zniknięciem z rynku, zaopatrując go w możliwość wykonywania dokładnie tych samych operacji, co jego poprzednicy (z 8088 włącznie). Dla wielu było to rozwiązanie w zupełności wystarczające. Umożliwiało bowiem uruchamianie istniejącego, 16-bitowego oprogramowania, zapewniając jednocześnie o wiele szybszą jego pracę. Oznaczało to oczywiście zrezygnowanie z wielu rozszerzeń, jakie procesor ten zaoferował. Nowoczesny procesor, jak Pentium H, pracujący w trybie rzeczywistym, funkcjonuje na zasadzie „Turbo 8088". Oznacza to, iż ma on dokładnie te same ograniczenia, co jego pierwowzór sprzed wietu lat, z tą jedynie różnicą, że pracuje o wiele szybciej. Oznacza to na przykład, że z posiadanych 64 MB RAM-u, będzie wykorzystywać jedynie pierwszy megabajt, pozostawiając 63 MB praktycznie niewykorzystane. Powstały więc nowe systemy operacyjne, pracujące w trybie 32-bitowym z ochroną danych. Jednak siła przyzwyczajeń użytkowników była ogromna. I mimo że powstawały systemy operacyjne, jak UNłX. Windows NT, OS/2, użytkownicy nadał trzymali się 16-bitowego Windows 3.X. Dopiero wersja Windows 95 i 98, jako pomost pomiędzy systemami w pełni 32bitowymi oraz 16-bitowymi, zdobyły szeroką popularność. Są to systemy w większości 32-bitowe, jednak pozostawiono wiele ł6-bitowych bram, umożliwiających współpracę tych systemów ze starszymi aplikacjami - 16bitowymi. Sprzedaż systemu Windows 95 rozpoczęto w sierpniu ł995 roku. Dokładnie 10 lat po zaprezentowaniu pierwszego procesora, na którym system ten można by uruchomić. Oto co znaczy siła przyzwyczajeń. Tym, co umożliwiło współpracę systemu Windows 95 ze starszymi aplikacjami - 16-bitowymi, był trzeci tryb procesora. Tryb rzeczywisty wirtualny (virtual real modę). Jest to w zasadzie normalny tryb 16-bitowy. z tym że uruchomiony wewnątrz 32-bitowego systemu nadrzędnego. Uruchomienie sesji DOS spod Windows 9X jest niczym innym, jak zainicjowaniem następnej sesji trybu Yirtual Real Modę. Ze względu na wielozada-niowość trybu Protected Modę, możliwe jest uruchomienie wielu takich sesji, a nawet ich równoległe działanie. Mogą one również współpracować z aplikacjami wykorzystującymi bezpośrednio tryb 32-bitowy. Jest to możliwe dzięki temu, że każdy proces 16-bitowy uruchomiony w takim środowisku ma bezpośredni dostęp do l MB pamięci, każdemu z nich wydaje się, że jest to „pierwszy" jeden megabajt pamięci, a w rzeczywistości każdy z nich operuje w innym
223
obszarze pamięci. Mając do dyspozycji wszystkie zasoby systemowe (rejestry, rozkazy DOS-u, BIOS itd.) - pracuje dokładnie tak, jakby był jedynym właścicietem systemu. Oczywiście, każdy następny uruchomiony proces powoduje zwotnienie pracy systemu. Jest to praktycznie jedyna konsekwencja współistnienia więcej niż jednego procesu wirtuatnego. Podobnie dzieje się w przypadku uruchomienia aplikacji 16-bitowych skonstruowanych d!a Windows 3.X. Drobiazgiem, na który warto zwrócić uwagę, jest fakt, że procesory Inteta uruchamiają się zawsze w trybie 16-bitowym i dopiero potem są przełączane w tryb 32-bitowy - gdy tak im nakaże zainstalowane oprogramowanie. Istnieją programy, które, mimo iż pracują w trybie rzeczywistym, nie są w stanie działać poprawnie w trybie rzeczywistym wirtuatnym. Najtepszym przykładem jest oprogramowanie diagnostyczne. Gdy chcemy uruchomić taki program, bez zastanawiania się, czy potrafi on poprawnie pracować w trybie chronionym czy nie, można uruchomić komputer w trybie 16bitowym - rzeczywistym - korzystając z systemu Windows 95/98 lub NT. Wystarczy w tym cetu nacisnąć klawisz F8 w odpowiednim momencie rozruchu systemu operacyjnego. Ukaże się menu, z którego możemy wybrać spośród kilku możliwości uruchomienia systemu. Tryby poteceń są czystymi 16-bitowymi trybami rzeczywistymi. „Tylko wiersz poteceń trybu awaryjnego" jest trybem załecanym do uruchomienia oprogramowania diagnostycznego. Minimalny zestaw sterowników oraz innego software'u gwarantuje rzetelne informacje. Choć aptikacje DOS-owe oraz sam DOS pracują w trybie rzeczywistym, istnieje specjalne oprogramowanie pozwatające systemowi korzystać z rozszerzonej pamięci systemu. Są to tak zwane ,.DOS extenders" (ang. extend - rozszerzać). Są one najczęściej dołączone do oprogramowania, które z nich korzysta. Sposób wykorzystania przez DOS rozszerzonych zasobów systemu określono jako DPMI (DOS Protected Modę Interface). Tak więc. choć aptikacje Windows 3.11 były 16-bitowe, mogły korzystać z całej dostępnej pamięci komputera. Działają one na zasadzie intetigentnego przełączania procesora z trybu 16-bitowego w tryb 32-bitowy z ochroną danych. Windows 3.11 miało taki mechanizm wbudowany w siebie. W oryginalnym systemie IBM-AT istniała pewna furtka (często nazywana A20 Gate) pozwatająca oprogramowaniu pracującemu w trybie rzeczywistym na osiągnięcie pierwszych 64 kB. wydawałoby się niedostępnej, pamięci rozszerzonej - spoza pierwszego megabajta. Jest to związane z dostępem do 21. linii adresowej (A20 - gdyż linie są numerowane od AO). Udostępniony w ten sposób, trochę ,,niechcący", obszar pamięci RAM, nazwano High Memory Area (HMA) (z ang. obszar pamięci wysokiej). Patrz „Obszar pamięci „wysokiej" i tinia adresowa A20 procesora 286" str. 464
Technotogie stosowane w dzisiejszych procesorach Nowoczesne procesory posiadają pewne, opisane poniżej, cechy, wpływające na wygodę ich użytkowania oraz szybkość. Są to:
224
• Zarządzanie energią - SMM (Power Management) • Architektura superskalarna (Superscałar execution) • Technologia MMX, • Dynamiczne wykonywanie (Dynamie execution), • Architektura DIB (Dua) Independent Bus - z ang. podwójna, niezależna magistrala).
Zarządzanie energią (SMM Power Management) W pewnym momencie wyścigu o umieszczanie jak najszybszych procesorów w komputerach typu Laptop oraz Notebook, Intet zorientował się, że drugim istotnym czynnikiem wpływającym na jakość pracy z tego typu komputerami jest czas jej trwania. Z tego wzgtędu w swych procesorach umieścił dodatkowe podobwody, regutujące zużycie energii w komputerze. Po raz pierwszy zastosowano to rozwiązanie w procesorze 486SL, który był zmodyfikowaną wersją procesora 486DX. Rozwiązania te zostały następnie wprowadzone we wszystkich procesorach typu Pentium. Skrót SMM oznacza System Management Modę - Tryb zarządzania systemem. Podobwody, pomimo że zintegrowane z układem procesora, działają od niego niezałeżnie. Umożłiwia to użytkownikowi zdefiniowanie czasu bezczynności, po którym procesor ma przejść w tryb uśpienia, ałbo całkowicie go wyłączyć. Ustawienia te najczęściej są regułowane bezpośrednio za pomocą podprogramu umieszczonego w BlOS-ie.
Architektura superskalarna Procesory piątej generacji - Pentium - i nowsze posiadają zdołność pracy nad kitkoma instrukcjami jednocześnie. Jest to osiągnięte poprzez tzw. potoki (pipehnes). W nazewnictwie Inteła tego typu rozwiązane to właśnie architektura superskaiarna (superscałar architecture). Zastosowanie takiego rozwiązania umożłiwiło na datszy wzrost prędkości procesora. Natęży dodać, że pierwotnie technika ta była wykorzystywana jedynie w procesorach typu RłSC (Reduced Instruction Set Computer). Pentium jest jednym z pierwszych procesorów CISC (Comptete Instruction Set Computer), które technikę tę zaadaptowały. Jest ona dzisiaj jednym z podstawowych etementów decydujących o szybkości procesora.
MMX Skrót ten nigdy nie został oficjatnie rozszyfrowany przez firmę Intet. Powszechnie uważa się, że jest to atbo Mutti-Media eXtensions, atbo Matrix Math eXtensions, jednak Intet zaprzecza, jakoby miała to być jakakotwiek z powyższych ewentuatności. Niemniej jednak nazwy te dość dobrze okreśtają mechanizm, na którym potęga owo usprawnienie. Został on wprowadzony w procesorach Pentium piątej generacji (rysunek 6.1) i miał za zadanie ułatwić kompresję/dekompresję grafiki, przetwarzanie obrazków, kodowanie
225
Rysunek 6.1.
oraz wymianę danych. Usprawnienia MMX potegały na zwiększeniu pamięci Cache Levet l (przyśpiesza to pracę także oprogramowania nie przystosowanego do wykorzystania innych rozszerzeń MMX) oraz rozszerzeniu zestawu instrukcji procesora o 57 nowych rozkazów i umożliwieniu procesorowi wykonywania tego samego rozkazu na wietu komórkach pamięci jednocześnie (stąd Matrix - macierz). Jest to tzw. SIMD (Sing)e Instruction, Muitiple Data - pojedynczy rozkaz, dużo danych). Można to przyrównać do sytuacji w klasie szkolnej, gdy nauczycie] mówi do wszystkich uczniów jednocześnie - ,,usiądźcie", zamiast do każdego zwracać się indywidualnie. A dodane 57 instrukcji to głównie instrukcje nastawione na przetwarzanie grafiki, dźwięku oraz innych tego typu danych równolegle. Równotegie dtatego, że te same operacje są stosowane do przetwarzania dużych iiości informacji -jak to się na przykład odbywa przy obróbce grafiki. Intet udostępnił łicencję na technołogię MMX swoim konkurentom: AMD oraz Cyrixowi, które to firmy następnie mogły wzbogacić swoje procesory o owe rozszerzenia.
Dynamiczne wykonywanie programów (Dynamie Execution) Innowacja ta, zastosowana po raz pierwszy w procesorach szóstej generacji, potęga na dodaniu trzech utepszeń w zdobywaniu danych. Są to „Multiple Branch Prediction", „Data flow anałysis", oraz „Specultative execution". Sposób, w jaki oprogramowanie wykorzystuje zasoby komputera, ma ogromny wpływ na szybkość wykonywania programu. Na pewno korzystnie na wykonywanie programu nie wpłynie częste odwoływanie się do odiegłych miejsc w pamięci ani oraz częste skoki z jednego miejsca programu w inne. Przestoje mogą także nastąpić, gdy cały procesor musi czekać na wykonanie instrukcji wykonywanej przez jeden z potoków. Dynamiczne wykonywanie rozkazów ma na cełu nie tytko przewidywanie - skąd procesor będzie potrzebował danych - ate i wykonywanie instrukcji niekoniecznie w narzuconej przez programistę kolejności. Dynamiczne wykonywanie składa się z następujących elementów (wyrażenia trudne do przetłumaczenia - z tego względu pozostawiam pisownię angielską oraz dołączam krótkie opisy, które być może choć trochę przybliżą znaczenie pojęć - przyp. tłum.): •
Multiple Branch Prediction ( wg Intela - „Przewidywanie z uwzględnieniem wielu rozgałęzień"). Zastosowano tutaj spccjałny algorytm, który umożliwił trafne (z ponad 90procentowym prawdopodobieństwem) oszacowanie celu
226
skoków. Mechanizm jest mniej więcej taki: procesor podczas wykonywania instrukcji przygtąda się następnym i na ich podstawie przewiduje skoki. •
Data Flow Analysis (wg Intela - „Analiza przepływu danych"). Procesor ana-łizuje i kolejkuje rozkazy, umieszczając je w określonej kolejności, niezależnej od oryginalnego kodu. Procesor przygląda się tym instrukcjom i sprawdza, czy można już je wykonać, czy może trzeba czekać - bo do ich wykonania są potrzebne dane jeszcze nie otrzymane. A dopiero na końcu w tak ustalonej kolejności dane są przesyłane procesorowi do przetworzenia.
•
Wykonywanie spekulatywne. Polega na poszukiwaniu instrukcji znajdujących się przed aktualnie wykonywanym fragmentem programu i wykonywaniu tych instrukcji, w wyniku których otrzymywane są dane potrzebne do pracy procesora w najbliższej przyszłości. Otrzymane gotowe dane umieszcza się następnie w specjalnej puti danych. W chwiti gdy tok programu dociera do tych instrukcji, zamiast ich wykonywania, do rejestru wprowadzane są od razu dane wyjściowe, otrzymane w wyniku wcześniejszego ich uruchomienia.
Elementy te sąjednymi z atutów procesorów szóstej generacji.
Architektura DIB (Dual Independent Bus) Została po raz pierwszy zaprezentowana w procesorach szóstej generacji. Utworzona z myślą o powiększeniu przepustowości magistrali procesora. Posiadanie owych dwóch magistral umożliwia procesorowi równoległy dostęp do danych - zamiast szeregowego (jak w systemie z pojedynczą magistralą). Druga magistrala jest wykorzystywana w komunikacji z pamięcią Cache Level 2. Umożliwiło to dużo efektywniejsze wykorzystanie tej pamięci. Zastosowanie takiego rozwiązania umożliwiło kilkukrotne usprawnienie komunikacji. Ponieważ szybkość części owej magistrali współpracującej z pamięcią cache zależy od szybkości procesora, ciągłe zwiększanie jego szybkości pociągnie za sobą potrzebę opracowywania coraz to szybszych pamięci cache. Głównym celem zastosowania architektury DIB było przeniesienie pamięci cache z płyty głównej bezpośrednio do układu procesora. Jedynym procesorem tego typu umieszczanym w kieszeni ZłF (Socket) jest Pentium Pro. W układzie tym pamięć Level l była umieszczona w samej strukturze procesora (jak w każdym procesorze od 486), natomiast pamięć L2 została niejako dołączona do procesora - do wspólnej obudowy. Uczyniło to procesor Pentium Pro rozwiązaniem drogim i trudnym do wyprodukowania, ale i umożliwiło korzystanie z pamięci Cache Levet 2 z prędkością taką samą, z jaką pracuje procesor. Pentium H jest produkowane w oparciu o prostszą i tańszą technologię. Procesor oraz dołączone do niego kości Cache są umieszczone w jednym opakowaniu (Cartridge) wsuwanym w gniazdo SEC (Single Edge Cartridge) - Stot 1. W opakowaniu tym znajduje się płytka montażowa, do której przy użyciu montażu powierzchniowego przylutowano procesor oraz pamięci. Technika ta ma jeszcze jedną zaletę. Zamiast stosowania wyszukanych i drogich w produkcji kości pamięci Cache L2, można zastosować zwykłe, standardowe pamięci statyczne RAM (BSRAM - Burst Static RAM).
227
Cache L2 większości procesorów jest taktowana z połową prędkości procesora. Możliwa jest jednak zmiana tych parametrów, jak również zmiana ilości Cache L2 montowanego na procesorze. Stąd istnienie różnych wersji procesora Pentium II, różniących się pomiędzy sobą nie tyiko prędkością taktowania, ale i ilością pamięci Cache L2. Zastosowanie architektury DIB umożliwiło mniej więcej trzykrotne powiększenie przepustowości szyny procesora.
Wytwarzanie procesorów Krzem jest głównym materiałem używanym do produkcji procesorów. Jakkoiwiek jest go na Ziemi bardzo dużo (jest jednym z głównych składników budulcowych skorupy ziemskiej), to jednak do użytku w elektronice nadają się jedynie specjalnie przygotowane porcje tego materiału. Przygotowanie takiego krzemu polega na wielokrotnym jego czyszczeniu, topieniu, a potem „wyciąganiu" długich okrągłych prętów monokryształu. Każdy z nich ma ok. 20 centymetrów średnicy i ok. 120 cm długości, a waży ok. 50 kilogramów. Następnie jest formowany do idealnie cylindrycznego kształtu o średnicy 200 mm (teraźniejszy standard) i z jednej strony nacinany żeby można było poznać jego strukturę krystaliczne. Następnie taki długi pręt jest krojony na plasterki przy pomocy diamentowej piły. Każdy taki plasterek ma mniej niż jeden milimetr grubości. Potem płytki te są polerowane. Układy scalone są produkowane w oparciu o fotolitografię. Proces ten rozpoczyna się pokrywaniem płytki półprzewodnika fotorezystem materiałem światłoczułym. Następnie fotorezyst jest naświetlany światłem przepuszczonym przez odpowiednią maskę. W miejscu naświetlenia tworzy on warstwę ceramiczną, która powoduje, że wszelkie dalsze procesy będą dotyczyć już tylko nie naświetlonej warstwy krzemu. Można taki krzem domieszkować (otrzymując półprzewodnik o mniejszej rezystywności od oryginalnego - słabo domieszkowanego, o małym przewodzeniu prądu). Do wyprodukowania procesora Pentium II potrzebne są cztery maski. Inne układy scalone mogą wymagać zastosowania sześciu i więcej. W chwili gdy światło przedrze się przez maskę, jest skupiane na powierzchni półprzewodnika, odmalowując na niej strukturę układu. Następnie płytka jest przesuwana, i obok już naświetlonego obrazka powstaje następny. Gdy cały krążek jest już naświetlony, resztki fotorezystu wypłukuje się. W ten sposób otrzymuje się obraz ścieżek, które będą jednym ze składników układu. Proces ten powtarza się kilkakrotnie. Aż do uzyskania efektu w postaci okrągłej płytki z pewną ilością struktur półprzewodnikowych. Oczywiście jednym z problemów przy tej produkcji jest jak najefektywniejsze wykorzystanie półprzewodnikowej płytki podłożowej. Procesor Pentium II 300 MHz jest wytwarzany w oparciu o technikę 0,35 mikrona. Przy założeniu, że ma on 7,5 miliona tranzystorów, okazuje się, że jego rozmiar to 14,2x14,2 milimetra. Oznacza to, że w jednym cyklu, z jednej cylindrycznej płytki o średnicy 200 mm, można otrzymać ok. 150 struktur procesora Pentium II. Celem jest oczywiście zmniejszanie rozmiaru struktur. Nowszy procesor Pentium II 333 MHz jest wykonany w oparciu o technologię 0,25 mikrona. Powoduje to zmniejszenie rozmiaru z 14,2x14,2 mm do 10,2x10,2 mm. Na takiej samej płytce podłożowej jest już możliwe umieszczenie 300 procesorów Pentium II.
228
Drugim celem jest wykonywanie coraz to większych płytek podłożowych. W pianach Inteła jest wyprodukowanie płytek o średnicy 300 mm. Ma się to stać w okolicach roku 2000. Krok ten pozwołi na wyprodukowanie ok. 675 procesorów w jednym cyklu tech-nołogicznym. Bardzo prawdopodobne, że spowoduje to spadek cen procesorów - ze wzgtędu na zwiększenie produkcji. Istotnym jest również fakt, że nie wszystkie w ten sposób utworzone układy są dobre. Szczegótnie wtedy, gdy uruchamia się nową łinię produkcyjną. Stosunek układów dobrych do wyprodukowanych to tzw. uzysk. Uzysk poniżej 50% jest typowy d!a nowych Unii. Jednak, gdy dany układ wychodzi z produkcji, uzysk przy jego produkcji sięga 90%. Producenci ukrywają te dane - ze względu na to, że znajomość uzysku pozwała konkurencji domyśtać się różnych problemów z jakimi dana firma się boryka. Na przykład, takie problemy miała firma AMD w latach 1997, 1998. Kosztowało ją to stratę udziału w znacznej części rynku. Podpisała jednak kontrakt z IBM, który jest liderem w produkcji układów scalonych zarówno pod względem jakości ich produktów, jak i możliwości produkcyjnych. Po dotychczasowych etapach produkcyjnych, każdy układ jest testowany. Złe są oznaczane w celu ich późniejszego usunięcia. Następnym etapem jest pocięcie płytek na poszczegółne układy. Dalej układy są testowane raz jeszcze, pakowane i znowu testowane. Podczas procesu pakowania dokonywane są wszelkie połączenia pomiędzy nóżkami a układem. W tym celu stosuje się złoto. Po umieszczeniu w obudowach, kompłetne już chipy są testowane raz jeszcze tym razem na wydajność. Różne chipy otrzymywane w tej samej serii mogą się różnić od siebie pod względem możliwej szybkości działania. Podczas testów układy są poddawane d/.iałaniu różnych czynników. Między innymi temperatury, ciśnienia itp. W pewnym momencie chip przestaje pracować poprawnie. Na sam koniec, chipy są dzielone na grupy, a kryterium podziału to właśnie maksymalna osiągnięta prędkość. Na przykład, procesory Pentium II 233. Pentium II 266 oraz Pentium II 300 MHz są to dokładnie te same chipy. Różnią się jedynie maksymalną szybkością, z jaką udało się procesor uruchomić. Wraz z nabywaniem przez producenta doświadczenia w produkowaniu chipów danego typu, rośnie uzysk osiągany z łinii produkcyjnych. Oznacza to na przykład, że w partii 150 układów ponad 100 sprawdzi się przy szybkości 300 MHz, podczas gdy tylko kilka będzie zepsutych. Związane z tym jest ciekawe zjawisko. Ludzie zamiast kupować drogie procesory 300 MHz, kupują tańsze ich wersje. Zapasy tańszych i gorszych procesorów szybko się wyczerpują- producent więc sięga do kosza z procesorami lepszymi i wypuszcza je na rynek opatrzone oznakowaniem gorszego procesora. Klienci świadomi takich problemów producenta, kupują w ten sposób ,,niedoceniane" procesory i montują je w swoich systemach, każąc im pracować z dużo większą prędkością od tej, którą zalecił producent. I wiełu z nich się to udaje, właśnie ze względu na to, że producent sprzedał wyrób lepszy za mniejsze pieniądze. Większość nowych procesorów Inteła została wyposażona w ochronę przeciw takiemu przetaktowaniu. Zazwyczaj jest to realizowane podczas procesu umieszczania płytki krzemowej w obudowie. Jest to zabezpieczenie na mnożniku częstotliwości. Jednak istnieje metoda na ominięcie takiego zabezpieczenia. Wystarczy mianowicie „podtaktować" taki procesor większą częstotliwością, zostawiając w spokoju mnożnik częstotliwości.
229
Ostatnio instalowałem procesor Pentium 200 MHz w systemie. Pracował on przy czę-stottiwości 3x66 MHz. I spróbowałem przestawić mnożnik, z 3 na 3,5. Efekt był taki, że procesor pracował wolniej niż poprzednio! Jednak istniała możliwość przestawienia mojej płyty głównej na nieudokumentowaną częstottiwość 75 MHz. Przemnożone przez trzy, dawało to 225 MHz. W tej chwili procesor pracuje z nową prędkością, z której jesteśmy zadowoieni obaj. Ja i mój procesor. Nieszczegótnie zatecam tą technikę przyśpieszania systemu. Wręcz przeciwnie. Gdy system ma pracować stabilnie, powinien pracować z tą prędkością, którą gwarantuje producent. Jednak wiadomo. Z szybkością komputera jest jak z szybkością samochodu. Każdy majsterkowicz kombinuje, jak tylko zwiększyć osiągi swojego „cacka". I tak było w tym przypadku.
Obudowy procesorów Produkuje się procesory w wielu wariantach, jednak najczęściej spotykane to PGA (Pin Grid Array), TCP (Tape Carrier Package) oraz SEC (Single Edge Cartridridge). Jako że rodzaj TCP jest związany z komputerami przenośnymi - zostanie omówiony w dalszej części tej książki - w rozdziale 21 „Komputery przenośne". Pozostałe wymienione typy omówimy teraz.
PGA PGA jest najczęściej spotykanym rodzajem obudów procesorów. Miał on swój początek już w erze procesorów 286. Nazwa wzięła się od zestawów złączy w postaci igieł (pins), znajdujących się pod spodem procesora, umieszczanego (w różnych wariantach w różny sposób) w podstawce znajdującej się na płycie głównej. W obecnych czasach jest to najczęściej podstawka typu ZIF (Zero Insertion Force - zerowa siła docisku). Gniazdo to ma z boku dźwignię, którą w prosty sposób uwalnia się zaciski trzymające procesor. Modyfikacją PGA jest SPGA (Staggered Pin Grid Array), różniąca się w zasadzie jedynie tym, że złącza (piny) umieszczane są nie tylko w rzędach i kolumnach -w węzłach siatki kwadratowej, ale dodatkowo jeszcze wewnątrz oczek takiej kwadratowej sieci. Ma to na celu zwiększenie ilości złącz, przy zachowaniu tej samej powierzchni. Na poniższym rysunku (6.2) przedstawione są oba warianty. Obudowa procesora Pentium 66 (z lewej strony) jest wykonana przy użyciu techniki PGA, a Pentium Pro (z prawej) został zbudowany w oparciu ojej zmodyfikowaną wersję - SPGA. Rysunek 6.2.
230
SEC Era procesorów wykonanych jako PGA zdaje się zbliżać ku końcowi - a to za sprawą wprowadzonego niedawno przez Intel nowego standardu Slot l (złącze I) typu SEC. Użyto go w procesorze Pentium H. Procesor, wraz z kilkoma układami cache L2 (ilość jest zależna od wersji procesora) jest umieszczony na małej ptytce montażowej, którą następnie - podobnie, jak modut SIMM o większych gabarytach - umieszcza się w odpowiednim gnieździe płyty głównej. Złącze Slot l posiada 242 styki. Jego charakterystyczne wymiary są przedstawione na rysunku 6.3. Procesor umieszczony na płycie głównej jest zabezpieczony przed przypadkowym wypadnięciem specjalnymi zatrzaskami. Rysunek 6.4 przedstawia części obudowy składającej się na moduł SEC. Proszę zwrócić uwagę na dużą płytkę, służącą również jako pomoc przy chłodzeniu procesora. Głównym celem przeniesienia procesora na oddzielną płytkę było skrócenie drogi pomiędzy procesorem a pamięcią Cache L2. Dzięki temu Intel może produkować procesory z większą ilością szybszej lub wolniejszej pamięci Cache. Firma Intel opracowała szereg gniazd procesorów, nazywanych kolejno Socket l, 2, .., do Socket 8. Każde z gniazd zostało przystosowane do współpracy z innym rodzajem procesora, zarówno przewidzianym jako procesor oryginalny, jak i OverDrive. Parametry gniazd procesorów zostały zebrane w tabeli 6.6.
Tabela 6.6. Liczba Typ końców gniazda ek Socket 1 169 Socket 2 238
Rozmieszcze nie końcówek 17* 17 PGA !9*)9P(i,\
Socket 3
237
I9*)9PGA
Socket 4
273
21*2) PGA
Socket 5
320
37x37 SPGA
Socket h** Socket 7
235 32!
19*!9PGA 37*37 8PGA
Socket 8 Slot 1
387 242
Dual pattem SPGA Slot
Napięci e zasiiania 5V 5V
Współpracuje z procesorami SX/SX2. DX/DX2*. DX4 SX/SX2. DX/DX2. DX4 486 Pentium OverDrive 5V/3.3 SX/SX2, DX/DX2. DX4. 486 Pentium OverDrive 5V Pentium 60/66. Pentium 60/66 OverDrive 3.3V Pentium 75-) 33. Pentium 75+ OverDrive 3.3V DX4. 486 Pentium VRM OverDrive Pentium 75-200. Pentium 75+ OverDrive VRM Pentium Pro VRM Pentium [l
231
232
233
Gniazda l, 2, 3 i 6 są gniazdami procesorów 486 i są przedstawione na rysunku 6.5. Rysunek pozwała porównać rozmiary gniazd oraz ich charakterystyczne cechy. Gniazda 4, 6, 7, 8 to gniazda procesorów Pentium i Pentium Pro. Są przedstawione razem na rysunku 6.6 - dła łatwego porównania. Dokładniejsze rysunki można znaleźć w dałszej części tego rozdziału. Rysunek 6.5.
Socket t
Socket 2
Rysunek 6.6.
Socket 3
SockBt 6
Socket
7 Socket 4
Socket 5
Socket 8
Oryginałne gniazdo OverDrive, obecnie okreśłane oficjałnie jako Socket l, jest 169-końcówkowym gniazdem typu PGA. Płyty główne wyposażone w takie gniazdo mogą obsługiwać procesor 486SX, DX oraz DX2, a także wersję OverDrive procesora DX2. Gniazdo to można spotkać w większości komputerów 486, w których konstruktor prze-wtd/iał możliwość przyszłej wymiany procesora. Rozmieszczenie końcówek gniazda Socket l przedstawia rysunek 6.7. Procesor DX w pierwotnej wersji 33 MHz pobierał maksymalnie 0,9 A prądu ze źródła napięciowego 5 V (wydziełana moc 5,5 W) oraz l A w wersji z zegarem 50 MHz (wydziełana moc 6 W). Tak nieznaczny wzrost wydzielanej mocy powoduje, że do odprowadzenia ciepła wystarcza zwykły, ałuminiowy radiator, przykłejony do procesora ktejem odpornym termiczne. Procesory OverDrive pracujące z częstotliwością do 40 MHz nie mają radiatorów. W momencie pojawienia się procesora DX2 firma Intel pracowała już nad procesorem Pentium. Inteł chciał zaoferować ograniczoną, 32-bitową wersję tego procesora przeznaczoną dła komputerów wyposażonych pierwotnie w procesor DX2. W tym przypadku, zamiast tylko zwiększyć częstotliwość zegara, firma Intel opracowała zupełnie nowy układ, którego zwiększone możłiwości pochodziły wprost od procesora Pentium.
234
Rysunek 6.7.
Procesor Pentium OverDrive pasuje do gniazda Socket 2 a)bo Socket 3. Gniazda te są dopasowane do dowotnego procesora 486 SX, DX, a także procesora Pentium OverDrive. Ponieważ procesor Pentium OverDrive jest w gruncie rzeczy 32-bitową wersją 64-bitowego procesora Pentium, jest często określany jako P6*n/;;
235
Kolejnym probtemem związanym z procesorem Pentium OverDrive jest pobór mocy. Procesor ten w wersji 5 V pobiera do 2,5 A prądu ze źródła 5 V (wraz z wentyłatorem), co daje 12,5 W traconej mocy, a więc więcej, niż wynosi podwojony pobór prądu 1,2 A (moc tracona 6 W) procesora DX2 66. Firma Intel nie ujawniła tej informacji w czasie trwania prac projektowych nad gniazdem Socket 3, dlatego później opracowała test, który poświadczał, że dana płyta główna jest pod wzgłędem mechanicznym i cieplnym dopasowana do procesora Pentium OverDrive. Dla zapewnienia sobie spokoju powinniśmy się upewnić, że komputer ma taki certyfikat, zanim zdecydujemy się na wymianę procesora. Pełną listę płyt głównych przystosowanych do współpracy z procesorami OverDrive można znałeźć na internetowej stronie firmy Intel: http://www.intel.com Na rysunku 6.9 przedstawione są wymiary procesora Pentium OverDrive i zamontowanego wraz z nim wentyiatora. Z powodu opisanych problemów z gniazdem Socket 2, a także z powodu dużych ilości ciepła wydzielanych przez procesor OverDrive w wersji 5 V, firma Intel opracowała ulepszony procesor OverDrive. Nie różni się on niczym od poprzedniego procesora Pentium OverDrive, z wyjątkiem tego, że zasilany jest napięciem 3,3 V i pobiera maksymalnie 3,0 A prądu ze źródła napięciowego 3,3 V (moc tracona wynosi 9,9 W), a jego wentyłator pobiera 0,2 A ze źródła 5 V (moc tracona wynosi l W). Łącznie tracona moc wynosi 10,9 W. W porównaniu więc z wersją 5 V procesora OverDrive trochę zmniejszono wydzielanie ciepła. Wentyłator można łatwo zdjąć z procesora, np. w cełu wymiany, gdyby uległ awarii.
236
Rysunek 6.9. Aby zapewnić obsługę zarówno procesora DX4 3,3 V, jak i Pentium OverDrive 3,3 V, firma Inteł musiała opracować nowe gniazdo procesora. Oprócz obsługi nowych procesorów 3,3 V, gniazdo to przystosowano również do współpracy ze starszymi typami procesorów wykonanymi w technotogii 5V: SX, DX, DX2, a nawet Pentium OverDrive 5 V. Płyta główna wyposażona w takie gniazdo, okreśłane jako Socket 3, jest jedną z najbardziej ełastycznych pod wzgtędem konfiguracji płyt 486. Rysunek 6.10 przedstawia rozmieszczenie końcówek w gnieździe Socket 3. Rysunek 6.10.
237
Warto zauważyć, że w porównaniu z gniazdem Socket 2, gniazdo Socket 3 ma dodatkowy otwór i kitka dodatkowych końcówek. Dzięki temu gniazdo to jest tępiej zabezpieczone przed przypadkowym umieszczeniem w nim procesora w nieprawidłowy sposób. Poważnym probtemem jest jednak niemożłiwość automatycznego ustatenia napięcia zasitania procesora. Aby umożtiwić użytkownikowi wybór napięcia 5 V ałbo 3,3 V, na płycie głównej w pobtiżu procesora znajduje się zwykłe odpowiednia zworka.
Zworka ta musi być oczywiście ustawiona ręcznie, dlatego mogłoby się zdarzyć, że użytkownik włoży procesor 3,3 V do gniazda ustawionego na 5 V. Takie postępowanie skończyłoby się uszkodzeniem kosztownego procesora w czasie włączania komputera. Użytkownik powinien się upewnić, że gniazdo jest skonfigurowane na napięcie odpowiednie dla danego typu procesora. Jeżeli zworka zostanie ustawiona napięcie 3,3 V, a w gnieździe umieści się procesor 5 V, nie spowoduje to jego uszkodzenia, lecz jedynie komputer nie będzie działał, dopóki nie ustawimy zworki na 5 V. Oryginatne wersje procesora Pentium 60 MHz i 66 MHz były dostępne w obudowach 273-końcówkowych i pasowały do gniazda 273końcówkowego, ate tytko ustawionego na napięcie 5 V, ponieważ wszystkie oryginatne procesory Pentium były zasitane napięciem 5 V. Gniazdo Socket 3 współpracuje z oryginatnymi procesorami Pentium 60 MHz i 66 MHz, a także z procesorami Pentium OverDrive. Rysunek 6.11 przedstawia rozmieszczenie końcówek w gnieździe Socket 4. Rysunek 6.11.
238
Zaskakujący może być fakt, że oryginalny procesor Pentium 66 MHz pobiera do 3,2 A prądu ze źródła 5 V (16 W traconej mocy), nie uwzględniając zasilania wentylatora, podczas gdy włożony na to samo miejsce procesor Pentium OverDrive 66 MHz pobiera maksymalnie 2,7 A prądu (13,5 W mocy traconej), włączając w to l W mocy pobieranej przez wentylator. Nawet procesor Pentium 60 MHz pobiera aż 2,91 A prądu przy zasilaniu 5 V (moc tracona wynosi 14,55 W). Dziwić może fakt, że procesor OverDrive wydziela mniej mocy niż model oryginalny, jest to jednak spowodowane różnymi technologiami produkcji tych procesorów. Chociaż obydwa procesory pracują z napięciem zasilającym 5 V, oryginalny procesor Pentium został wykonany w technologii 0,8 mikrona, przez co pobiera więcej energii niż nowsze, wykonane w technologii 0,6 mikrona, procesory OverDrive i pozostałe procesory Pentium. Zmniejszenie rozmiarów wewnętrznych obwodów elektronicznych procesora jest jednym z najlepszych sposobów na zmniejszenie poboru energii. Chociaż procesory Pentium OverDrive w komputerach Pentium istotnie pobierają mniej prądu niż oryginalny procesor Pentium, to jednak muszą mieć zapewnioną dodatkową wolną przestrzeń, aby mógł pracować wentylator umieszczony na wierzchu obudowy procesora. Podobnie jak w przypadku pozostałych procesorów OverDrive z wbudowanym wentylatorem, napięcie zasilania wentylatora jest pobierane wprost z końcówki w gnieździe procesora, dzięki czemu nie jest wymagane osobne zasilanie wentylatora. Wentylator taki będzie również łatwiej wymienić w razie awarii. W momencie opracowania procesora Pentium pracującego z częstotliwościami 75, 90 i 100 MHz, firma Intel zdecydowała się na stosowanie technologii 0,6 mikrona i napięcia zasilania 3,3 V. Zmiana ta zaowocowała mniejszym poborem prądu - tylko 3,25 A przy napięciu zasilania 3,3 V (10,725 W mocy traconej). Z tego powodu procesor Pentium 100 MHz może zużywać o wiele mniej energii niż oryginalny procesor Pentium 60 MHz. Nowsze wersje procesora Pentium 120 MHz i szybsze, a także Pentium Pro i Pentium II są wykonane w jeszcze dokładniejszej technologii 0,35 mikrona. Rezultatem jest dalsze zmniejszenie poboru energii, a także znaczne zwiększenie częstotliwości pracy układu, bez ryzyka przegrania się. Począwszy od Pentium 75, procesory Pentium są zamknięte w obudowie 296-końcówkowej, chociaż pasują również do 320końcówkowego gniazda Socket 5. Dodatkowe końcówki są wykorzystywane przez procesory Pentium OverDrive. 320 końcówek gniazda socket 5 jest rozmieszczonych w formacie SPGA (Staggered Pin Grid Array), w którym poszczególne końcówki są rozmieszczone naprzemiennie w celu zapewnienia jak największej gęstości upakowania. Dostępne są różne wersje procesorów OverDrive, które zwiększają możliwości komputerów z procesorami Pentium. W przypadku procesora Pentium 60 czy 66 pierwszej generacji oraz płyty głównej z gniazdem Socket 4, można kupić procesor Pentium OverDrive pracujący z częstotliwością dwa razy wyższą. Procesory Pentium drugiej generacji z zegarem 75 MHz, 90 MHz i 100 MHz, współpracujące z gniazdem Socket 5 czy Socket 7, można zastąpić procesorem OverDrive wykorzystującym technologię MMX. Szybkość procesorów po wymianie wynosi odpowiednio 125 MHz po wymianie procesora 75 MHz, 150 MHz w przypadku procesora 90 MHz i 166 MHz dla Pentium 100 MHz. Technologia MMX znacznie zwiększa osiągi procesora, dotyczy to zwłaszcza aplikacji multimedialnych.
239
Rysunek 6.12. Rysunek 6.12 przedstawia rozmieszczenie końcówek w gnieździe Intel Socket 5. Procesor Pentium OverDrive zastępujący procesory Pentium posiada własny wentytator, który jest zasilany wprost z końcówki w gnieździe procesora. Procesor ten pobiera mak-symatnie 4,33 A prądu przy napięciu zasitania 3,3 V, co daje 14,289 W mocy traconej, oraz dodatkowe 0,2 A ze źródła 5 V potrzebne do zasitania wentytatora (l W mocy traconej). Łączny pobór mocy wynosi 15,289 W. Wiełkość ta jest mniejsza niż w przypadku oryginatnego procesora Pentium 66 MHz, a przy tym procesor OverDrive pracuje prawie cztery razy szybciej. Ostatnie z omawianych gniazd dla procesorów 486 zostało opracowane z myślą o procesorach DX4 i 486 Pentium OverDrive. Gniazdo Socket 6. bo o nim mowa, jest w zasadzie nieco zmienioną wersją gniazda Socket 3, z dodatkowymi dwiema końcówkami ułatwiającymi prawidłowe włożenie procesora. Gniazdo Socket 6 ma 235 końcówek i można w nim umieszczać tytko procesory DX4 i 486 Pentium OverDrive. Ponieważ gniazdo to dostarcza tytko napięcia 3,3 V, a jedyne procesory z nim współpracujące są przystosowane do napięcia 3,3 V, nie ma ryzyka zniszczenia procesora, jak w przypadku gniazda Socket 3. W praktyce gniazdo Socket 6 nie znalazło zbyt wietu zastosowań. Rysunek 6.13 przedstawia rozmieszczenie końcówek w gnieździe Socket 6.
240
Rysunek 6.13. Gniazdo Socket 7 w zasadzie jest takie samo, jak gniazdo Socket 5. Znajduje się w nim dodatkowa końcówka-klucz, umieszczona w wewnętrznym rogu po przeciwnej stronie istniejącej już końcówki-ktucza. Gniazdo Socket 7 ma 321 końcówek ułożonych w matrycę 21x21 typu SPGA (Staggered Pin Grid Array). Jedyną istotną różnicą w porównaniu /, gniazdem Socket 5 jest zastosowanie modułu regulacji napięcia (ang. Yottage Reguiator Module VRM), który musi znajdować się na płycie głównej, aby dostarczać procesorowi odpowiedniego napięcia. Moduł WM jest niewielkich rozmiarów płytką drukowaną, na której znajdują się układy regutacji napięcia potrzebne do obniżenia napięcia 5 V do wysokości odpowiedniej d!a danego typu procesora. Rozwiązanie to zastosowano z kilku powodów. Jednym z nich jest to, że regulator napięcia ma tendencję do przegrzewania się i jest bardzo podatny na uszkodzenia. Jeżeli umieści się go na płycie głównej, tak jak to zostało zrobione w przypadku gniazda Socket 5, zwiększa się prawdopodobieństwo tego, że ewentualna awaria regulatora poniesie za sobą konieczność wymiany całej płyty głównej. Chociaż teoretycznie mógłby być wymieniony sam regulator napięcia, to jednak na skutek zastosowania montażu powierzchniowego taka wymiana byłaby bardzo czasochłonna i kosztowna. Ponadto, w czasach, kiedy najwyższej klasy płyty główne kosztują zaledwie 250$ (mniej niż procesor i pamięć), po prostu nie opłaca się ich naprawiać. Osobny moduł VRM umieszczany w gnieździe ułatwia wymianę regulatora w razie awarii. Możliwość regulacji napięcia jest przydatna, jednak głównym powodem przemawiającym za zastosowaniem VRM były plany firmy Intel, dotyczące powstania nowych procesorów Pentium, pracujących z różnymi napięciami zasitania. Dotychczas firma Intel opracowała
241
kilka różnych wersji procesorów Pentium, Pentium-MMX, Pentium Pro i Pentium H pracujących z napięciami 3,3 V (W), 3,465 V (WE), a także 3,1 V, 2,8 V i 2,45 V. Innymi słowy, jeżełi płanujemy zakup płyty głównej Pentium i chcemy w przyszłości wymienić procesor na modę) nowszej generacji czy nawet tyłko na szybszy procesor, a także zapewnić sobie łatwą wymianę regułatora napięcia w przypadku awarii, to powinniśmy się rozejrzeć za płytą wyposażoną w gniazdo Socket 7 i moduł VRM. Socket 8 jest specjatną podstawką SPGA zawierającą wejścia na aż 387 końcówek! Zaprojektowano ją z mysią o obsłudze procesorów Pentium Pro, posiadających zintegrowaną pamięć podręczną drugiego poziomu (L2). Dzięki dodatkowym końcówkom, chipset płyty głównej mógł kontrołować zintegrowaną z procesorem pamięć L2. Rozmieszczenie końcówek standardu Socket 8 zostało pokazane na rysunku 6.15. Rysunek 6.14.
Podstawki ZIF (Zero tnsertion Force) Gdy Inteł okreśłił specyfikację Socket l, stwierdził, iż skoro użytkownicy mają zamiar zmieniać procesor na nowszy, natężałoby jak najbardziej uprościć proces jego instałacji. Pierwszym probłemem związanym z instałacją nowego procesora była siła potrzebna na umieszczenie go w typowej, i69końcówkowej podstawce Socket 1. Aby umieścić w niej procesor, natężało nacisnąć z siłą aż 100 funtów. Oddziałując z tak dużą siłą, łatwo można było uszkodzić zarówno sam procesor, jak i podstawkę. Z tego powodu, niektórzy producenci zaczęłi stosować podstawki LIF (Low Insertion Force), o niskiej sile nacisku,
242
Rysunek 6.15.
w których zainstatowanie procesora wymagało oddziaływania tytko z siłą 60 funtów. Gdy w komputerach posiadających płyty główne ze standardową podstawką !ub podstawką HF zachodziła potrzeba wymiany procesora, doradzałem wymontowanie całej płyty głównej. Po jej wyjęciu z komputera, można było ją przytrzymać z drugiej strony przy umieszczaniu procesora w gnieździe. Takie przytrzymanie było konieczne, ponieważ podczas dociskania procesora z siłą 60-100 funtów, płyta główna, jeśti nie była odpowiednio podtrzymywana, mogła po prostu się złamać. Dodatkowo, do wyjęcia procesora z jednego z tych gniazd wymagane było specjałne narzędzie. Tak jak możesz sobie wyobrazić, MM/;<2 .M?a naci^M była pojęciem dość względnym i zaistniała potrzeba wymyśłenia łepszego rozwiązania, jeśłi z zainstatowaniem procesora w komputerze miał sobie poradzić jego zwykły użytkownik. W późniejszych płytach głównych Socket l, producenci zaczęli montować podstawki ZIF (Zero [nsertion Force). Zauważ jednak, że specyfikacja Socket X nie miała nic wspótnego z tym, czy podstawka była standardowa, LIF czy też ZIF - w specyfikacji zdefiniowano jedynie rozmieszczenie poszczególnych końcówek, nie obejmowała ona typu podstawki. W tym czasie niemał wszyscy producenci płyt głównych zaczęłi je wyposażać w gniazda ZIF. Dzięki tym podstawkom ryzyko uszkodzenia płyty głównej zostało praktycznie wyeliminowane, ponieważ do zainstatowania procesora nie była wymagana żadna siła nacisku. Większość podstawek ZIF posiada niewietką dźwignię; podczas instalowania procesora po prostu podnosi się ją do górnej pozycji, umieszcza procesor w podstawce, a następnie opuszcza dźwigienkę. I to już wszystko. Dzięki takiemu rozwiązaniu wymiana procesora stała się łatwym zadaniem.
W gnieździe Stot l umieszczane są zaprojektowane przez Inte) kasety SEC (Sing)e Edge Cardridge) procesorów Pentium H. W środku kasety znajduje się płytka drukowana z procesorem i pamięciami podręcznymi. W przeciwieństwie do procesorów Pentium
243
Pro, w Pentium H pamięć podręczna L2 nie znajduje się w samym procesorze, !ecz na płytce drukowanej, na której umieszczony jest procesor. Dzięki temu Inte] nie musi sam produkować układów pamięci podręcznej L2, iecz może wykorzystywać układy innych producentów; takie rozwiązanie znacząco ułatwia również produkowanie procesorów Pentium H z różnymi itościami pamięci podręcznej. Procesory Cełeron na przykład, to wersja Pentium H nie posiadająca w ogóle pamięci podręcznej, przyszłe wersje tego procesora mają zaś mieć nawet więcej niż standardowe 512 kB tej pamięci. Na rysunku 6.16 zostało przedstawione rozmieszczenie końcówek oraz wymiary złącza Słot 1. Tabela 6.7. Nr końcówki At A2 A3 A4 A5 A6 A7 A8 A9 A10 AH A12 At3 A14 At5 At6 A)7 A18 A19 A20 A21 A22 A23 A24 A25
Opis VCC_VTT GND VCC_VTT IERR# A20M# GND FERR# IGNNE# TDI GND TDO P WRG O OD TESTHI GND THERMTRIP #Zarezerwowan aLINT[0]/NMI GND P!CD[0] PREQ# BP#3 GND BPM#[0] BINIT# DEP#[0]
Nr końcówki Bl B2 B3 B4 B5 B6 B7 B8 B9 B10 BH B12 B13 B14 B15 B16 B17 B18 B19 B20 B21 B22 B23 B24 B25
Opis EMI FLUSH# SMI# INIT# VCC_VTT STPCLK# TCK SLP# VCC_VTT TMS TRST# Zarezerwowana VCC_CORE Zarezerwowana Zarezerwowana LINT[1]/NMI VCC_CORE PICCLK BP#[2] Zarezerwowana BSEL# PICD[1] PRDY# BPM#[1] VCC_CORE
244
Tabeta 6.7. cd. Nr końcówki A26 A27 A28 A29 A30 A31 A32 A33 A34 A35 A36 A37 A38 A39 A40 A4I A42 A43 A44 A45 A46 A47 A48 A49 A50 A51 A52 A53 A54 A5S A56 A57
Opis GND DEP#[1] DEP#[3] DEP#[5] GND DEP#[6] D#[6t] D#[55] GND D#[60] D#[53] D#[57] GND D#[46] D#[49] D#[51] GND D#[42] D#[45] D#[39] GND Zarezerwowana D#[43] D#[37] GND D#[33] D#[35] D#[31] GND D#[30] D#[27] D#[24]
Nr końcówki B26 B27 B28 B29 B30 B31 B32 B33 B34 B35 B36 B37 B38 B39 B40 B41 B42 B43 B44 B45 B46 B47 B48 B49 B50 B51 B52 B53 B54 B55 B56 B57
Opis DEP#[2] DEP#[4] DEP#[7] VCC_CORE D#[62] D#[58] D#[63] VCC_CORE D#[56] D#[50] D#[54] VCC_CORE D#[59] D#[48] D#[52] EMI D#[41] D#[47] D#[44] VCC_CORE D#[36] D#[40] D#[34] VCC_CORE D#[38] D#[32] D#[28] VCC_CORE D#[29] D#[26] D#[25] VCC_CORE
245
Tabeta 6.7. cd Nr końcówki A58 A59 A60 A6ł A62 A63 A64 A65 A66 A67
Opis GND D#[23] D#[21] D#[16] GND D#[13] D#[H] D#[10] GN D D#[14]
A68 A69 A70 A71 A72 A73 A74 A75 A76 A77 A78 A79 A80 A81
D#[9] D#[8] GND D#[5] D#[3] D#[I] GND BCLK BRO# BERR# GND A#[33] A#[34] A#[30]
Nr końcówki B58 B59 B60 Ból B62 B63 B64 B65 B66 B67 B68 B69 B70 B71 B72 B73 B74 B75 B76 B77 B78 B79 B 80 B81
Opis D#[22] D#[t9] D#[18] EMI D#[20] D#[17] D#[15] VCC_CORE D#[12] D#[7] D#[6] VCC_CORE D#[4] D#[2] D#[0] VCC_CORE RESET# BR1# FRCERR VCC_CORE A#[35] A#[32] A#[29] EMI
A82 A83 A84
GND A#[31] A#[27]
B82 B83 B84
A#[26] A#[24] A#[28]
A85 A86 A87 A88
A#[22] GND A#[23] Zarezerwowana
B85 B86 B87 B88
VCC_CORE A#[20] A#[21] A#[25]
246
Tabeta 6.7. cd. Nr końcówki A89 A90 A91 A92 A93 A94 A95 A96 A97 A98 A99 A100 A101 A102 A103 A104 A105 A!06 AI07 A108 At09 Ano Ain A112 AH3 A114 A115 AH6 A117 AM8 A119 A)20 A121
Opis A#[19] GND A#[18] A#[16] A#[13] GND A#[14] A#[10] A#[5] A#[3] A#[9] A#[4] BNR# GND BPRI# TDRY# DEFER# GND REQ#[2] REQ#[3] HJTM# GND DBSY# RS#[1] Zarezerwowana GND ADS# Zarezerwowana AP#[0] GND VID[2] V1D[1] VID[4]
Nr końcówki B89 B90 B91 B92 B93 B94 B95 B96 B97 B98 B99 B 100 B101 B 102 B 103 B 104 B105 B106 B 107 B108 B 109 BHO B1M BH2 BH3 B114 B115 B116 B117 BH8 BH9 B120 B121
Opis VCC_CORE A#[15] A#[17] A#[ll] VCC_CORE A#[12] A#[8] A#[7] VCC_CORE A#[3] A#[6] EMI SLOTOCC# REQ#[0] REQ#[1] REQ#[4] VCC_CORE LOCK# DRDY# RS#[0] VCC5 HIT# RS#[2] Zarezerwowana VCC_L2 RP# RSP# AP#[1] VCC_L2 AERR# VID[3] VID[0] VCC_L2 m M O O 3* *5 ' W )
248
Napięcia zasilania procesorów Zanim na rynku pojawiło się Pentium MMX, większość procesorów zasilana była jednopoziomowym napięciem, najczęściej takim samym jak płyta główna. Zazwyczaj wynosiło ono 5 V, 3,5 V łub 3,3 V. W miarę zwiększania się częstotliwości pracy i rozmiarów procesorów, konieczność ograniczenia zużycia energii (dzięki czemu zmniejszało się wydzielane ciepło) skłoniła projektantów procesorów do obniżenia poziomów zasilania. Pierwszym krokiem było obniżenie napięcia zasilania z 3,5 do 3,3 V. W nowszych procesorach udało się jeszcze bardziej zmniejszyć zużycie energii, dzięki zastosowaniu techniki /w&if/OM^go za-H/an/a (a/i^. ć/Ma/ w/fa^d* łub ,sp//f ra;/ Procesory, w których zastosowano tę technikę, są zasilane dwoma różnymi napięciami. Napięcie zasilania zewnętrznych układów danych i wejścia/wyjścia (I/O) w celu zapewnienia kompatybilności z układami płyty głównej wynosi zazwyczaj 3,3 V. Napięcie zasitania jądra procesora jest zazwyczaj niższe i wynosi w większości przypadków od 1,8 do 2,9 V. Dzięki temu rozwiązaniu możliwe stało się wykorzystanie zasilanych niższym napięciem procesorów, bez dokonywania całkowitych zmian w projektach płyt głównych, chipsetów oraz innych układów wspomagających. Do prawidłowej obsługi procesorów zasilanych podzietonym napięciem konieczna były tylko wymiana regulatora napięcia na taki, który będzie potrafił dostarczyć do podstawki procesora odpowiednie poziomy napięć zasilania. Procesory Pentium są w zależności od wersji zasilane wieloma różnymi napięciami, ale większość z nich pracuje z napięciem zasilania równym 2,8 V, nie licząc niskonapięciowych wersji przeznaczonych do wykorzystania w komputerach przenośnych, które wymagają napięcia zasilania wynoszącego tylko 1,8 V. W tabełi 6.8 wypisano napięcia zasilania jednonapięciowych procesorów Intel Pentium (nie MMX). Pojęcie Jednona-pięciowy" oznacza, że zarówno do końcówek jądra procesora, jak i do końcówek wejścia/ wyjścia (ł/O) doprowadzone jest takie samo napięcie. Tabeta 6.8. Ustawienia napięć zasilania procesorów Pentium Napięcie Oznaczenie Komentarz nominaine +5 V Napięcie zasiiania 5.000 V STD (3,3 V) Standardowe 3.300 V VR (3,3 V) Zredukowane 3.380 V napięcie VRE (3,3 V) Rozszerzone VR 3,500 V
Akceptowain y zakres napięcia 4.750-5,250 V 3. 135-3, 600 V 3,300-3,465 V 3,400-3,600 V
W tabeti 6.9 zostały wypisane napięcia jądra wymagane przez procesory zasilane napięciem podzielonym (split vottage). Do wszystkich końcówek I/O tych procesorów zostało doprowadzone napięcie wynoszące 3,3 V. Akceptowalne odchylenia napięcia zasilania mieszczą się zazwyczaj w zakresie +/- 5% napięcia nominalnego.
249
Tabeta 6.9.
Oznaczenie
Komentarz
Napięcie nominaine
MMX (2,8 V) 2.9 V 3,2 V 2.2 V MMX (2,8 V) MMX (2,8 V) STD (3,3 V) VRE (3,5 V)
Intel MMX AMD K6 Modę! 6AMD K6 Modę) 6AMD K6 Model 7 Cyrix 6x86MX Cyrix 6x86L Cyrix 6x86 Cyrix 6x86
2,800 V 2,800 V 2,800 V 2.800 V 2,800 V 2.800 V 3.300 V 3,500 V
Akceptowain y zakres napięcia 2,700-2,900 V 2.700-2.900 V 2,700-2,900 V 2,700-2,900 V 2,700-2,900 V 2,700-2,900 V 3, 135-3.600 V 3. 400-3. 600 V
Większość posiadających podstawkę Socket 7 i późniejszych płyt głównych obsługujących procesory Pentium umożtiwia w celu zapewnienia kompatybilności z przyszłymi procesorami ustawienie wietu różnych napięć zasitania (np. 2,5; 2,7; 2,8 tub 2,9 V). Wbudowany w płytę główną regulator napięcia konwertuje napięcie podawane przez /asilacz na różne poziomy, wymagane przez jądro procesora. Aby znaleźć odpowiednie ustawienia napięcia zasitania, sprawdź dokumentację płyty głównej. Procesory Pentium Pro i Pentium II automatycznie ustawiają odpowiednie napięcie zasita-nia, kontrotując umieszczony na płycie głównej regutator napięcia za pomocą końcówek VID. Zostało to bardziej szczegółowo objaśnione w części opisującej procesory Pentium Pro i Pentium II
Ciepło i probiemy z jego odprowadzaniem Nadmiar ciepła może stać się problemem w każdym bardziej rozbudowanym komputerze. Szybsze procesory zużywają zazwyczaj więcej energii i w związku z tym generują więcej ciepła. Jeśli procesor w twoim komputerze pracuje z częstotliwością 66 MHz lub większą, musis/. odprowadzić dużo więcej ciepła; znajdujący się w komputerze wentylatorek może już sobie z tym nie poradzić. Aby schłodzić komputer, w którym wydzietane przez procesor ciepło staje się probtemem, możesz kupić (zazwyczaj za mniej niż 18 zł) umieszczany na procesorze rad/;'afor, który ma za zadanie odprowadzać ciepło z procesora. W wietu komputerach natęży zastosować większe od standardowych radiatory, odprowadzające dzięki zwiększonej powierzchni więcej ciepła.. Istnieją dwa typy radiatorów: pasywne i aktywne. W aktywnych radiatorach zastosowano zasilany elektrycznie wentylatorek lub inne urządzenie chłodzące; do radiatorów tych natęży doprowadzić napięcie zasilające. Najczęściej stosowane są radiatory z wentylatorkiem, ate czasami korzysta się również z urządzeń przepływowych, będących w rzeczywistości miniaturowymi todówkami. Do radiatorów aktywnych musi zostać
250
doprowadzone zasilanie, zazwyczaj wykorzystuje się w tym ce]u jedną z wtyczek zasi-tania twardych dysków, tub specjałne, 12-voltowe złącze na płycie głównej. Jeśii masz /amiar kupić radiator z wentylatorkiem, uważaj, ponieważ na rynku znajduje się wiele zasilaczy bardzo złej jakości. W radiatorach o złej jakości wykorzystano silniki z łożyskami ślizgowymi, które bardzo szybko się btokują. Polecam używanie tytko wentyłatorków z łożyskami kulkowymi, które pozostają sprawne ponad 10 razu dłużej od łożysk tulejowych. Oczywiście kosztują one około dwóch razy więcej, ale na dłuższą metę zaoszczędzisz pieniądze. Radiatory pasywne są w 100% niezawodne, ponieważ nie posiadają mechanicznych części, które mogłyby ulec uszkodzeniu. Najprostsze z nich to aluminiowe radiatory wymieniające ciepło z otoczeniem. Radiatory pasywne nie będą poprawnie działać, jeśli otaczające je powietrze będzie stało w miejscu; obieg powietrza jest zazwyczaj wymuszany przez wentylatorek w zasilaczu lub dodatkowy wentylatorek umieszczony w obudowie. Jeśli obudowa lub zasilacz są odpowiednio zaprojektowane, będziesz mógł skorzystać zamiast z radiatora aktywnego, z jednego z tańszych radiatorów pasywnych. Większość nowszych komputerów wykorzystuje obudowy o poprawionych wymiarach, nazywane <471X. Dzięki temu, że w standardzie ATX wentylatorek zasilacza znajduje się w pobliżu procesora, w umieszczanych w tych obudowach komputerach procesor jest o wiele lepiej chłodzony. Dodatkowo, zasilacz w większości obudów ATX jest zaprojektowany tak, by wydmuchiwał powietrze bezpośrednio na procesor, umożliwiając wykorzystanie pasywnego radiatora (bez wentylatorka). Patrz „Zasilacze ATX", str. 497 Patrz„ATX",str. 121
Koprocesory arytmetyczne Kolejny podrozdział jest poświęcony koprocesorom arytmetycznym. Starsze modele procesorów firmy Intel (a także ich klony) mogą współpracować z koprocesorem, a od momentu zaprezentowania przez firmę Intel procesora 486DX z wbudowanym koprocesorem arytmetycznym, wszystkie procesory Intela (a także AMD i Cyrix) mają wbudowany taki układ. Koprocesory realizują sprzętowo operacje zmiennoprzecinko-we, które bez nich nadmiernie obciążałyby procesor. Układy te przyśpieszają pracę komputera, jednak tylko wtedy, kiedy korzystamy z oprogramowania wykorzystującego ich zalety. Koprocesor może wykonywać operacje matematyczne wysokiego poziomu - np. dzielenie długich liczb, funkcje trygonometryczne, pierwiastkowanie i logarytmy - od 10 do 100 razy szybciej niż procesor główny. Jednostka arymtetyczno-logiczna procesora operuje na liczbach całkowitych, wykonując na nich operacje dodawania, odejmowania i mnożenia. Mikroprocesor jest przystosowany do wykonywania takich operacji, dlatego nie obciążają one niepotrzebnie koprocesora arytmetycznego.
251
Zbiór instrukcji koprocesora arytmetycznego różni się od tisty rozkazów zwykłego procesora. Do programu natęży wykrycie obecności koprocesora i tytko wówczas jest możtiwe wykonywanie specjatnych instrukcji koprocesora, w przeciwnym wypadku koprocesor zużywa tytko prąd i nie robi nic więcej. Na szczęście większość współczesnych programów korzystających koprocesora potrafi go prawidłowo wykryć i obsłużyć. Do programów takich zaticzają się zwykte zaawansowane programy matematyczne: arkusze katkutacyjne, systemy zarządzania bazą danych, programy statystyczne i graficzne oraz programy wspomagające projektowanie (ang computer-aided design, CAD). Edytory tekstów nie współpracują z koprocesorem. W tabeti 6.10 zebrano modete koproce-sorów współpracujące z procesorami rodziny Intet. Tabata 6.10. Procesor
Koprocesor
8086 8088 80286 80386SX 8038SL 80386SLC 80486SLC 80486SLC2 80386DX 80486SX 80487SX* 804865X2 80486DX 804860X2 80486DX4 Pentium/Pentium -MMX Pentium Pro Pentium H
8087 8087 80287 80387SX 80387SX 80387SX 80387SX 80387SX 80387DX 80387SX DX2/OverDrive* Wbudowane FPU DX2/OverDrive** Wbudowane FPU Wbudowane FPU Wbudowane FPU Wbudowane FPU Wbudowane FPU Wbudowane FPU
W obrębie każdej grupy 8087 koprocesory różnią się między sobą częstottiwością pracy. Cyfra pr/yrostka po głównym numerze procesora, tak jak to pokazano w tabeti 6.11, oznacza maksymatną częstottiwość pracy koprocesora.
252
Tabeła 6.11. Układ 8087 8087-3 8087-2 8087-1
Częstotiiwoś ć5MHz 5MHz 8MHz lOMHz
Układ 80287 80287-6 80287-8 80287-10
Częstotiiwość 6MHz 6MHz SMHz lOMHz
Oznaczenie koprocesora arytmetycznego 387, jako przyrostek przy nazwie układu, zawsze wskazuje maksymalną częstotliwość pracy, podobnie jak w przypadku procesorów 486, 487 i Pentium. Np. układ 486DX2-66 jest przeznaczony do pracy z częstotliwością 66 MHz. Niektóre procesory posiadają układ mnożący częstotliwość zewnętrzną, dzięki czemu mogą pracować z częstotliwościami różnymi od częstotliwości płyty głównej. Wzrost wydajności programów wykorzystujących koprocesor arytmetyczny może osiągnąć olbrzymią wartość, rosnącą zazwyczaj w postępie geometrycznym. Jeżeli najczęściej uruchamiane programy potrafią skorzystać z zalet koprocesora, to powinieneś go zainstalować w komputerze. Większość komputerów z procesorem 386 lub starszym jest wyposażona w gniazdo koprocesora, jednak komputery te nie są standardowo wyposażone w koprocesor. Kitka modeli komputerów nie miało gniazda koprocesora z powodu obniżenia kosztów albo dla /aoszczędzenia miejsca w obudowie. Są to zazwyczaj tańsze wersje komputerów biurkowych lub komputery przenośne, np. starsze modele komputerów typu laptop, takich jak IBM PS/1, oraz komputery PCjr. Więcej informacji o konkretnym układzie koprocesora będzie można znaleźć w kolejnych podrozdziałach omawiających te układy: 8087, 287, 387 i 487SX. W tabeli 6.12 zebrano parametry różnych koprocesorów arytmetycznych. Tabeła 6.12. Koprocesory
Model
Pobór mocy
Minimaina dopuszczaina temperatura
Maksymain Liczba a Data dopuszczatna tranzystorów pojawienia się temperatura
8087 287 287XL 387SX 387DX
3 waty 3 waty 1,5 wata 1,5 wata 1 ,5 wata
0°C, 32°F 0°C, 32°F 0°C, 32°F 0°C, 32°F 0°C, 32°F
85°C, 185°F 85°C. 185°F 85°C, 185°F 85°C, 185°F 85°C, 185°F
45000 45000 40000 120000 120000
1980 1982 1990 1988 1987
Najczęściej o tym, czy koprocesor jest obecny w komputerze, można się dowiedzieć z dokumentacji komputera. Kolejne podrozdziały omawiają bardziej szczegółowo rodzinę procesorów i koprocesorów arytmetycznych firmy Intel.
253
Błędy w procesorach Producenci dysponują wyspecjałizowanym sprzętem diagnostycznym. Jednak my - jako zwykM użytkownicy - jesteśmy zmuszeni połegać na testach przeprowadzonych przez nich. Możemy jednak się wesprzeć na różnych programach diagnostycznych, które mogą przetestować nasz sprzęt przynajmniej pod względem najbardziej widocznych błędów. Firmy takie jak Diagsoft, Symantec, Micro 2000, Trinitech, Data Depot, i inne piszą właśnie tego typu oprogramowanie. Jeżeh nie mamy zamiaru kupować takich programów, możemy przeprowadzić proste testy samodziełnie - zmuszając system do wytężonej pracy i obserwując efekty. Ponieważ procesor jest mózgiem całego systemu, większość komputerów nie będzie w ogółe pracowała z uszkodzonym procesorem. Gdy wydaje się nam, że tym, co się zepsuło, jest płyta główna, pierwszą czynnością powinno być przetestowanie jej z innym - sprawnym - procesorem. Dopiero, jeżełi to nie pomoże, natęży gdzie indziej szukać przyczyn niepoprawnej pracy. Zdarzało się, że przyczyna tkwiła po stronie producenta - który produkował układy wadliwe. Jednak są to sytuacje bardzo rzadkie. Jednak gdy na temat tego typu probtemów wiemy więcej - łatwiej nam będzie się przed nimi ustrzec.
Wymiana procesora Procesory mogą być wadliwie skonstruowane lub obarczone błędami produkcyjnymi. Prawie zawsze udaje się rozwiązać tego typu problemy na drodze zmian software'owych. Inteł dość skrupułatnie publikuje i prezentuje problemy związane z jego produktami w podręcznikach „Specification Update". Są one dostępne również przez Internet. Kiedyś - jedynym rozwiązaniem naprawy procesora była jego wymiana lub obejście błędu. Teraz istnieje inne rozwiązanie - połegające na zmianie mikrokodu procesora. Wprowadzono je w procesorach szóstej generacji: Pentium Pro oraz Pentium II. Owe fragmenty mikrokodu są przechowywane w pamięci ROM BIOS i automatycznie ładowane do procesora podczas testu POST (Power-On Self Test). Za każdym razem, gdy system jest przeładowany, kod naprawiający jest wprowadzany do procesora. Najprostszą metodą sprawdzenia, czy jest potrzebne stosowanie takich obejść, jest uruchomienie specjalnego programu, rozprowadzanego przez firmę Intel. Sprawdza on, czy odpowiednie modełe procesora posiadają odpowiednie kody naprawcze wprowadzone w płytę główną. Warunkiem niezbędnym do przeprowadzenia poprawnej aktuatizacji jest odpowiednie skonstruowanie płyty głównej. Jednak właściwie każda produkowana w tej chwili płyta główna na to zezwała. Jest to specjałna funkcja, gdyż program Intela zmienia jedynie ten fragmencik BIOS-u, który zawiera ów mikrokod wprowadzany za każdym razem do procesora - a nie cały BIOS. Każdy procesor Inteła typu ,,box" czyli zapakowany w pudełko oraz zaopatrzony w wentylator - jest sprzedawany wraz z takim programem. Aby zdobyć najnowszą wersję takiego programu, nałeży skontaktować się ze sprzedawcą systemu - gdyż nikomu innemu Intel nie udostępnia tych programów.
254
Jeżeli płyta główna nie daje takiej możliwości - należy sprawdzić, czy nie jest dostępna nowsza wersja BIOS-u. zawierająca wszystkie do tej pory udostępnione mikrokody. h/y składaniu komputera należy także sprawdzić, czy wprowadzany mikrokod jest /godny /. danym egzemplarzem procesora. W tabeli 6.13 zestawiono listę mikrokodów dla podanych partii procesorów Pentium Pm ora/ Pentium H. Wyprodukowane partie procesorów są zebrane w tabete w dalszej L /csci tego rozdziału. Tabeta 6.13.
Procesor Pentium Pro K-ntium Pm Pcntium Pro Pentium Pm Pcnnum H
Partia CO sAH sAl sB! CO
Znak partii 0x612 0x616 0x6 1 7 0x619 0x633
Wersja mikrokodu OxC6 OxC6 OxC6 OxD! 0x32
Pcniium [1 I\'I)!!H!H H
Cl dAO
0x634 0x650
0x33 0x15
Nazwy kodowe procesorów Intel Intel /aws/c nadawał swoim przyszłym procesorom nazwy kodowe. Są one przezna-c/one jedynie na potrzeby własne, lecz najczęściej przenikają do prasy na długo przed ukazaniem się prototypów. Czasem informacje takie są umieszczane nawet w instrukcjach do płyt głównych, mimo że procesory, do których są przystosowane, jeszcze nie istnieją. Tabela 6.14 zawiera listę procesorów Intela i ich nazwy kodowe.
Układy kompatybiłne z procesorami Intel Kitka firm, przede wszystkim AMD i Cyrix, opracowało własne mikroprocesory kompatybilne / układami łntela. Ich pełna kompatybilność z procesorami Intela oznacza, że w taki sam sposób wykonują każdą instrukcję. Większość z „klonów" ma taki sam rozkład końcówek jak pierwowzór, dzięki czemu układy te mogą być wykorzystywane w każdym komputerze przystosowanym do procesora Intel. Niektóre z nich jednak wymagaią odpowiednio zmodyfikowanych płyt głównych. Dowolny sprzęt czy oprogramowanie współpracujące z komputerem opartym o procesor Intela będzie również współpracować z komputerem o procesorze kompatybilnym. Obecnie układy takie znajdują się w ofercie kilku firm. my przyjrzymy się najpopularniejszym z nich.
255
Tabela 6.14.
Nazwa kodowa
Procesor
P4 P4S P23 P23S P23N P23T P4T P24 P24S P24D P24C P24CT P5 P24T P54C P55C P54CTB Tillamook P6 Klamath Deschutes Covington Mendocino Katmai Willamette Merced
486DX 486SX 486SX 487SX 487SX 486 OverDrive dla 80486 (169 pin PGA) 486 OverDrive d!a 486 (168 pin PGA) 486DX2 486DX2 486DX2WB (Write Back) 486DX4 486DX4WB (Write Back) Pentium 60 )ub 66, Socket 4, 5 V 486 Pentium OverDrive, 63 !ub 83 MHz, Socket 3 Klasyczne Pentium 75-200 MHz, Socket 5/7, 3,3 V Pentium MMX 166-266 MHz, Socket 7, 2,8 V Pentium MMX OverDrive 125+, Socket 5/7, 3,3 V Mobile Pentium MMX 0,25 mikrona, 166-266 MHz, 1,8 V Pentium Pro. Socket 8 Pentium H, słot l Pentium II, 0,25 mikrona, Slot I tub Slot 2 Pentium II, tani Deschutes, bez cache L2 (Celeron) Pentium II, tani Deschutes, 300 MHz, 128 kB L2 (Ce)eron A) Pentium II, MMX2 Pentium II, ulepszone Katmai P7, pierwszy procesor IA-64
Procesory AMD Firma Advanced Micro Designs (AMD), dzięki opracowaniu własnej tinii procesorów zgodnych z układami Intet, stała się głównym rozgrywającym na rynku procesorów kompatybitnych z Pentium. AMD kitka tat temu znatazł się w kłopotach, ponieważ opracowany przez firmę kton procesora 486 wykorzystywał mikrokod procesorów Intel. Kwestie te zostały jednak rozstrzygnięte i obecnie trwa okres pięcioletniej ugody ticencyjnej
256
pomiędzy AMD a Intetem. Firma AMD przejęła również innego producenta mikroprocesorów kompatybiinych z układami Intela, firmę NexGen. Obecnie w ofercie firmy znajduje się szeroka gama procesorów, począwszy od odpowiedników 486, a skończywszy na procesorze K6 z technotogią MMX. W poniższej tabeti zebrano modełe procesorów AMD i typy gniazd pasujące do nich. Procesor Am486DX4-K)0 Am486DX4-120 Am5x86 K5 PR75 K5 PR90 K5PR100 K5PR130 K5PR133 K5PR166 K6-166 MMX K6-200 MMX K6-233 MMX K6-266 MMX K6-300 MMX
Częstottiwość zegara 100 [20 75 75 90 [00 90 1 00 116,66 166 200 233 266 300
Typ gniazda Socket 1,2,3 Socket 1,2,3 Socket 1,2,3 Socket 5, 7 Socket 5, 7 Socket 5, 7 Socket 5, 7 Socket 5, 7 Socket 5, 7 Socket 7 Socket 7 Socket 7 Socket 7 Socket 7
Warto zwrócić uwagę, że oznaczenia K6 PR120 - PR166 nie odpowiadają częstottiwo-ści zegara tych procesorów. Dzięki modyfikacji procesory te mogą pracować szybciej, niż to wynika z ich częstotłiwości zegara. Oznaczenia pozostałych układów informują o tym, że komputer oparty o dany modę] procesora pod wzgłędem wydajności odpowiada mniej więcej komputerowi z anatogicznym procesorem Pentium. Procesory AMD, zwłaszcza z nowej serii K6, przeważnie wypadały dobrze w testach porównawczych, a ich cena jest zazwyczaj o wiete niższa niż procesorów Intel. Ustawienie 116,66 MHz jest osiągane poprzez ustawienie mnożnika częstotliwości w pozycję 2,5x, co jest rozumiane przez procesor jako mnożnik 1,75 częstotliwości płyty głównej.
Procesory Cyrix Podobnie jak Inte!, firma Cyrix ogranicza swoją ofertę tytko do układów najnowocześniejszych. Obecnie Cyrix próbuje podbijać rynek procesorów ktasy Pentium swoimi procesorami Ml (6x86 i 6x86MMX) i M2. W skład procesora Mł wchodzi 3,3 mitiona tranzystorów. Układ ten był początkowo produkowany w technołogii 0,65 mikrona.
257
Procesor 6x86 posiada dwupotokową architekturę i 16 kB wewnętrznej pamięci cache. Procesor ten, podobnie jak procesor Pentium Pro, może wykonywać instrukcje w z naruszeniem porządku sekwencyjnego (ang. out of order). Procesor 6x86 wykorzystuje technotogię MMX i pasuje do gniazda Socket 7, jednak niektóre modele mogą wymagać odpowiednio zmodyfikowanych chipsetów i specjalnych płyt głównych. Poniższa tabeta przedstawia wersje procesorów Cyrix Ml pracujące z różnymi częstottiwościami i odpowiadające im częstotliwości pracy płyt głównych. Tabeia 6.15. Procesory Typ procesora/ częstottiwość 6x86-PR!20 6x86-PR133 6x86-PR150 6x86-PR166 6x86-PR200 6x86 MX-PR 166 6x86 MXPR2()0 6x86 MXPR233
CzestotNwość zegara procesora 1 00 HO 120 133 t50 150 166 188
Mnożnik częstotiiwości 2x 2x 2x 2x 2x 2,5x 2,5x 2,5x
Częstotiiwoś ć płyty głównej 50 55* 60 66 75** 60 66 75**
Niedawno firma Cyrix zaprezentowała najnowszy procesor M2. Procesor ten zawiera 64 kB wewnętrznej pamięci cache pierwszego poziomu, a wydajnością ponad dwukrotnie przewyższa procesory 6x86. M2 będzie oferowany w wersjach od 180 do 225 MHz i, podobnie jak układ M), będzie pasował do gniazda Socket 7. Wszystkie procesory Cyrixa są produkowane przez firmę IBM, która oferuje również procesory pod własnym znakiem handiowym. Późniejsze wersje procesora 6x86MX zostały przemianowane na MII, aby kojarzono je bardziej z procesorem Pentium II niż dotychczasowymi rozwiązaniami Pentium. De facto są to te same procesory co 6x86MX, z tą różnicą, że taktowane sygnałem o wyższej częstothwości. Pierwszym procesorem MII był MII 300, taktowany sygnałem 233 MHz pochodzącym z płyty głównej typu Socket 7 66 MHz. Istnieją inne wersje: MII 333 z zegarem 250 MHz, pracujące na nowszych płytach głównych 100 MHz typu Super-Socket 7. Cyrix podjął próbę jeszcze szerszego opanowania części tańszego rynku poprzez wprowadzenie procesora MediaGX. Jest to skrzyżowanie procesorów 486 i Pentium, połączone z chipsetem normatnie znajdującym się na płycie głównej - na drugiej kości. Oba chipy stanowią więc razem praktycznie całą ptatformę sprzętową, w oparciu o którą można budować system.
258
IDT Winchip Firma Integrated Device Technotogy (IDT), znana przez długi czas jako producent kości statycznego RAM (SRAM), po wchłonięciu firmy Centaur Technotogy na podstawie projektów tamtej firmy, wypuściła na rynek nowy produkt o nazwie C6 Winchip. Jest on prosty w konstrukcji i bardziej przypomina 486 niż Pentium. Nie ma architektury superskalarnej, za to bardzo szybką pojedynczą ścieżkę dla rozkazów. Wydaje się, że nie ma on wiele wspólnego z architekturą procesorów Intela. Jednak okazuje się, że niezbyt ustępuje pierwowzorowi - procesorowi Pentium MMX - przynajmniej według testu Winstone-97. Natęży wspomnieć, że test ten nie skupia się na operacjach muttimedial-nych. Pojedynczy układ zajmuje powierzchnię 88 mm* płytki krzemowej - a więc dużo mniej niż układ Intela. Powinien więc kosztować znacznie mniej od jego starszego brata. Procesor C6 zawiera dwa duże bufory Cache (32 kB dla instrukcji i 32 kB dla danych). Pracuje z prędkościami 180, 200, 225 oraz 240 MHz. Procesor ten jest oszczędny, gdyż maksymalne zużycie energii to ok. 14 W, a znacznie mniej - bo od 7 do 10 W - dia układów w wersji dla komputerów przenośnych.
Typy procesorów W komputerach PC najczęściej spotyka się procesory firmy Intel. Znaleźli się jednak inni producenci, np. Cyrix czy AMD, którzy na podstawie prowadzonych badań określili parametry procesorów Intel i opracowali własne, kompatybilne układy. Procesory produkuje również firma IBM, wykorzystując je we własnych komputerach bądź też w podzespołach sprzedawanych innym firmom. Seria układów IBM x86 została opracowana we współpracy z firmą Cyrix i praktycznie niczym się nie różni od procesorów linii 6x86 tejże firmy. Znajomość procesora obecnego w komputerze może być bardzo pomocna w uświadomieniu sobie i wykorzystaniu możliwości komputera, jak również może się przydać w razie ewentualnych napraw. Aby w pełni wykorzystać możliwości procesora, a także dokonywać napraw, trzeba przynajmniej znać typ procesora obecnego w komputerze.
P1 (086) Procesory pierwszej generacji Procesory 8088 i 8086 Oryginalny komputer IBM PC wykorzystywał procesor 8088 pracujący z częstotliwością 4,77 MHz. Oznacza to, że procesor był sterowany z częstotliwością 4770000 „tików" (coś w rodzaju komputerowych uderzeń serca) na sekundę. Pojedynczy „tik" odpowiada raczej bardzo małej porcji pracy procesora - wykonaniu instrukcji lub grupy instrukcji -niż czasowi jej trwania.
259
Użytkownicy komputerów zastanawiają się czasami, skąd bierze się ograniczenie pamięci konwencjonatnej w komputerze z procesorem 8086 do 640 kB, skoro procesor 8086 potrafi zaadresować l MB pamięci. Powodem tego jest wydziełenie przez firmę IBM 384 kB górnej pamięci z obszaru 1024 kB przestrzeni adresowej procesora 8088 i zarezerwowanie jej na potrzeby kart sieciowych i BIOS-u komputera (programu komputerowego rezydującego na stałe w pamięci ROM komputera PC). Dotne 640 kB pamięci RAM to przestrzeń tzw. pamięci konwencjonałnej, w której rezyduje DOS i aptikacje. W 1976 roku, jeszcze zanim został opracowany procesor 8088, firma Intel zaprezentowała nieco szybszy procesor, oznaczony symbotem 8086. Procesor 8086, który był jednym z pierwszych procesorów 16-bitowych, mógł zaadresować do l MB pamięci. Z powodu wysokiej ceny samego procesora oraz płyty głównej, nie zdobył on jednak zbyt dużej popularności. Cena musiała być wysoka, ponieważ komputer z procesorem 8086 wymagał drogiej, 16-bitowej magistrali zamiast tańszej 8-bitowej. W ówczesnym okresie królowały komputery 8-bitowe, a kłienci nie miełi zamiaru płacić dodatkowo za możtiwości pełnego procesora 16-bitowego. Z tego powodu w roku 1978 firma Intet opracowała procesor 8088. Jak na dzisiejsze standardy, zarówno procesor 8088, jak i 8086 są dość wolne. Procesory 80186 i 80188 Po wyprodukowaniu procesorów 8086 i 8088. firma IBM skupiła się na opracowaniu procesora o większej mocy obłiczeniowej, z bardziej rozbudowaną Usta rozkazów. Pierwsze działania w tym kierunku, które zaowocowały powstaniem procesorów 80186 i 80188, nie zakończyły się jednak sukcesem. Umieszczenie w jednym układzie scało-nym procesora i niektórych podzespołów komputera, co zreatizowano w przypadku 80186, było jednak dość istotne, ponieważ doprowadziło do powstania szybszych i wydajniejszych procesorów, takich jak 286. Retacje pomiędzy procesorami 80186 a 80188 są podobne jak pomiędzy 8086 i 8088 -jeden procesor jest nieco bardziej rozbudowaną wersją drugiego. W porównaniu z 8086, układ 80186 prawie niczym się od niego nie różni i jest procesorem w pełni 16-bitowym. Układ 80188, podobnie jak 8088, jest hybrydą łączącą w sobie wewnętrzną, 16-bitową architekturę z 8-bitowym interfejsem zewnętrznym. Zatetą 80188 i 80186 była integracja w pojedynczym układzie scatonym od 15 do 20 etementów komputera z procesorem 8086/8088. Dzięki temu stało się możłiwe znaczne ograniczenie iłości elementów w komputerze. Układy 80186 i 80188 są wykorzystywane w ,,intełigent-nych" kartach rozszerzających, np. kartach sieciowych. Koprocesor 8087 Firma Intei zaprezentowała swój procesor 8086 w roku 1976. Koprocesor arytmetyczny 8087, współpracujący z 8086, okreśtany był jako numeric data processor (procesor numeryczny), math coprocessor (koprocesor arytmetyczny) albo po prostu math chip. Układ 8087 został przystosowany do wykonywania operacji matematycznych wysokiego poziomu, z szybkością i dokładnością wiełokrotnie przewyższającą procesor główny. Podstawową korzyścią płynącą ze stosowania koprocesora jest wzrost szybkości w programach wykonujących intensywne obticzenia, np. w arkuszach kałkułacyjnych. Korzystanie
260
z koprocesora pociągało jednak za sobą kilka niedogodności, m.in. konieczność obsługi układu przez aptikacje, dodatkowy koszt, zwiększony pobór energii i większe wydzietanie ciepła. Podstawową niedogodnością związaną z używaniem koprocesora jest to, że wzrost szybkości zauważymy tytko w programach napisanych specjalnie z uwzględnieniem koprocesora - i to nie w przypadku wszystkich operacji. Tylko programy wykonujące intensywne obliczenia - arkusze kalkulacyjne, programy statystyczne, programy CAD i programy inżynierskie - obsługują koprocesor. Nawet wówczas osiągnięte efekty mogą zależeć od konkretnej aplikacji i obsługa koprocesora jest ograniczona do niektórych dziedzin. Np. wersje programu Lotus 1-2-3 wykorzystujące koprocesor nie używają go do zwykłych operacji, takich jak dodawanie, odejmowanie, mnożenie i odejmowanie. Aplikacje, które z reguły wcale nie wykorzystują koprocesora, to edytory tekstów, programy komunikacyjne i programy zarządzające bazą danych.
P2 (286) Procesory drugiej generacji Procesory 286 Procesor Intel 80286 (oznaczany skrótowo 286), przeciwieństwie do 80186/88, był kompatybilny z poprzednimi procesorami. Układ 80286, zaprezentowany w roku 1981, położył podwaliny pod powstanie komputera IBM AT. Wielu niezależnych producentów komputerów opracowało tzw. klony komputera IBM, które często były określane jako „kompatybilne z AT" albo „klasy AT". Firma IBM opracowując komputer AT zdecydowała się na zbudowanie komputera w oparciu o procesor 286, ponieważ procesor ten był kompatybilny z procesorem 8088 wykorzystywanym w komputerach IBM PC/XT. Oznacza to, że oprogramowanie napisane dla komputerów PC/XT powinno dać się uruchomić w komputerze 286. Układ 286 był o wiele szybszy od procesora 8088 wykorzystywanego w komputerze XT i pozwolił na zwiększenie wydajności komputerów PC wykorzystywanych w biznesie. Szybkość przetwarzania oryginalnego komputera AT (z procesorem taktowanym zegarem 6 MHz) była 5 razy większa od komputera PC 4,77 MHz. Komputery 286 są szybsze od swoich poprzedników z wielu względów. Po pierwsze, procesory 286 szybciej wykonują instrukcje. Wykonanie instrukcji zajmuje procesorowi 8086 czy 8088 przeciętnie 12 cykli zegara, natomiast procesorowi 286 - tylko 4,5 cyklu. Ponadto procesor 286 może jednocześnie obsłużyć 16 bitów z magistrali danych, której szerokość jest dwa razy większa od rozmiaru magistrali danych procesora 8088. Procesor 2086 może pracować w dwóch trybach: rzeczywistym i chronionym. Dzięki temu procesor 286 pod wieloma względami przypomina dwa procesory w jednym układzie. W trybie rzeczywistym układ 286 nie różni się praktycznie od 8086 i jest z nim w pełni kompatybilny na poziomie kodu wykonywanych rozkazów (ang. object code comapatible) z procesorami 8088 i 8086. (Procesor kompatybilny z innym procesorem na poziomie kodu wykonywalnego pozwala na uruchamianie programów napisanych dla innego procesora, bez konieczności ich modyfikacji, wykonując każdą instrukcję w taki sam sposób, jak drugi procesor.)
261
Rysunek 6.17.
W trybie chronionym 286 jest autentycznie nowym procesorem. W trybie tym aplikacja wykorzystująca zalety nowego procesora może „uważać", że procesor ten ma dostęp do l GB pamięci (włączając pamięć wirtualną). Układ 286 może jednak fizycznie zaadresować tylko 16 MB pamięci. Istotną niedoróbką procesora 286 jest niemożliwość przełączenia z trybu chronionego w tryb rzeczywisty bez przeprowadzenia restartu komputera. (Natomiast przełączenie z trybu rzeczywistego w chroniony nie wymaga restartu). Dużą przewagą kolejnego procesora 386 nad 286 jest możliwość programowego przełączania pomiędzy trybem rzeczywistym oraz chronionym i odwrotnie. Aż do chwili pojawienia się trybu „Standard Modę for 286 compatibitity" w systemie Windows 3.0, sprzedano niewielką itość oprogramowania wykorzystującego zalety procesora 286. Wówczas najlepiej sprzedawanym procesorem był już 386. Procesor 286 był jednak pierwszą, podjętą przez firmę Intel, próbą opracowania procesora obsługującego wielozadaniowość (ang. multitasking), tzn. umożliwiającego jednoczesne wykonywanie wielu programów. Procesor 286 jest zaprojektowany tak, że jeżeli zawiesi się lub zakończy niepowodzeniem jeden program, nie będzie to wymagało przeprowadzenia ani „gorącego" (reset), ani „zimnego" (wyłączenie i włączenie zasiłania) startu komputera. Teoretycznie operacje w zakresie jednego obszaru pamięci nie powinny mieć wpływu na działanie innych programów. Programy uruchomione w środowisku wielozadaniowym są zabezpieczone przed interferencją ze strony innych programów, jednak w celu zapewnienia takiej ochrony niezbędny jest system operacyjny współpracujący z procesorem 286 (tub z jego następcą).
Koprocesor 80287 Koprocesor 80287 ma strukturę wewnętrzną identyczną z układem 8087, ma jednak inne rozmieszczenie wyprowadzeń. Zarówno koprocesor 80287, jak i 8087 pracują tak, jakby były identycznymi układami.
262
W większości komputerów procesor 80286 dokonuje podziału częstotHwości zegara przez dwa. Koprocesor 80287 dzieli zewnętrzną częstotliwość przez 3. Z tego powodu w większości komputerów AT koprocesor 80287 pracuje z częstotliwością trzy razy niniejszą od częstotliwości zegara systemowego, a równą dwóm trzecim częstotliwości procesora 80286. Ponieważ układy 80286 i 80287 pracują asynchronicznie, nie współpracują ze sobą w sposób tak wydajny jak 8088 i 8087. Podsumowując, koprocesory 8087 i 80287 pracują przy określonej częstotłiwości z jednakową wydajnością. Układ 80287 nie przewyższa pod żadnym wzgłędem koprocesora 8087, inaczej niż procesor 80286, który stanowi krok naprzód w stosunku do procesorów 8086 i 8088. W większości komputerów AT wzrost wydajności uzyskany na skutek dodania koprocesora arytmetycznego jest mniej zauważalny niż dodanie koprocesora w komputerze PC lub XT ałbo 80386.
P3 (386) Procesory trzeciej generacji Procesory 386 Procesor Intel 80386 (oznaczany w skrócie jako 386) wywołał znaczne poruszenie w świecie PC, ponieważ znacznie przyczynił się do zwiększenia możliwości komputerów osobistych. W porównaniu z procesorami 8088 i 286, procesor 386 jest znacznie wydajniejszy niemal pod każdym względem. 386 jest procesorem w pełni 32-bitowym, zoptymalizowanym pod kątem szybkości przetwarzania danych i możliwości zastosowania w wielozadaniowych systemach operacyjnych. Firma Intel zaprezentowała go w roku 1985, jednak pierwsze komputery oparte o procesor 386 pojawiły się dopiero na przełomie roku 1996 i 1997. Pierwszymi komputerami z procesorem 386 były modele Compaq Deskpro 386, nieco później został wykorzystany w komputerze PS/2 Model 80 firmy IBM. Przez kilka lat popularność układu 386 rosła, osiągając punkt kulminacyjny w roku 1991. Od tamtej chwili popularność rynkowa procesora systematycznie spada aż do osiągnięcia punktu, w jakim znajduje się dzisiaj. Procesor 386 może wykonywać instrukcje trybu rzeczywistego 8086 i 8088, zajmuje mu to jednak mniej cykli zegara. Pod tym względem 386 jest tak samo wydajny jak 286, co oznacza, że przeciętnie wykonuje instrukcję w czasie około 4,5 cykla. Z tego powodu, pod względem ..czystej" wydajności procesory 286 i 386 są sobie równe. Wielu producentów komputerów 286 zachwalało swoje komputery z zegarem 16 MHz i 20 MHz jako równie szybkie jak komputery 386 z zegarem 16 MHz i 20 MHz - była to prawda. Procesor 386 zapewnia większą wydajność na inne sposoby, przede wszystkim dzięki dodatkowym trybom pracy i znacznie rozszerzonym możliwościom Modułu zarządzania pamięcią (ang. Memory Management Unit - MMU). Procesor 386 można przełączać z trybu rzeczywistego w tryb chroniony i z powrotem w sposób programowy, bez konieczności wykonywania restartu komputera, dzięki czemu tryb chroniony jest praktyczniejszy w wykorzystaniu. Dodatkowo procesor 386 posiada nowy tryb, tzw. wirtualny tryb rzeczywisty (ang. virtual real modę), który umożliwia jednoczesne uruchomienie kilku sesji trybu rzeczywistego w trybie chronionym.
263
Oprócz zwiększenia szybkości pracy, chyba najważniejszą cechą układów 386 są dostępne w nich następujące tryby pracy: •
tryb rzeczywisty (ang. reai mode)
•
tryb chroniony (ang. protected mode)
•
wirtuatny tryb rzeczywisty (ang. protected real mode)
W trybie rzeczywistym procesor 386, podobnie jak 286, jest kompatybilny z 8086. W trybie tym komputer z procesorem 386 jest po prostu dużo szybszym komputerem „turbo PC" z 640 kB pamięci konwencjonalnej, podobnie jak komputery oparte o procesor 8088. Tryb ten jest wymagany do uruchomienia systemu operacyjnego DOS i jego aplikacji. Tryb chroniony 386 jest w pełni kompatybilny z trybem chronionym 286. W obydwu procesorach tryb chroniony jest często określany jako macierzysty tryb pracy (ang. na-tive modę), ponieważ procesory te zostały zaprojektowane z myślą o zaawansowanych systemach operacyjnych, takich jak OS/2 czy Windows NT, które pracują wyłącznie w trybie chronionym. Firma Intel rozszerzyła możHwości adresacji pamięci w trybie chronionym procesora 386 poprzez nową jednostkę MMU, umożliwiającą zaawansowane stronicowanie pamięci i przełączanie procesów. Funkcje te stanowią rozszerzenie moż-łiwości MMU procesora 286, 386 jest więc w pełni kompatybiłny z 286 na poziomie kodu wykonywalnego. Rysunek 6.18.
264
Nowością jest wirtualny tryb rzeczywisty 386. W trybie tym procesor może, wykorzystując sprzętową ochronę pamięci, symulować tryb rzeczywisty procesora 8086. Dzięki temu może być jednocześnie uruchomionych wie!e kopii systemu DOS i innych systemów operacyjnych, z których każda rezyduje w chronionym obszarze pamięci. Jeżeti program w danym segmencie pamięci wykona nieprawidłową operację, to pozostałe programy są zabezpieczone prze jej skutkami. Btok pamięci z kodem wadtiwej aplikacji może zostać programowo odzyskany. Można spotkać różne wersje procesora 386, niektóre z nich mają mniejsze możliwości obliczeniowe, a inne charakteryzują się mniejszym poborem mocy. W kolejnym pod-rozdziałe zostaną omówione procesory z rodziny 386 i różnice pomiędzy nimi. Procesory 386DX Procesor 386DX był pierwszym procesorem firmy Inte) z rodziny 386. Układ ten jest w pełni 32-bitowy, posiada 32-bitowe rejestry wewnętrzne, 32-bitową zewnętrzną magistralę danych i 32-bitową zewnętrzną magistralę adresową. Procesor 386 zawiera 275000 tranzystorów w układzie wykonanym w technołogii VLSI (Very Large Scalę Integration). Układ ten jest dostępny w 132-końcówkowej obudowie i pobiera około 400 mA prądu - mniej niż 8086. Procesor 386 pobiera mniej prądu niż 8086, ponieważ jest wykonany w technologii CMOS (Complementary Metal Oxide Semiconductor). Urządzenia elektroniczne wykonane w technologii CMOS charakteryzują się niedużym poborem energii. Układ 386 był dostępny w wersjach z zegarem od 16 MHz do 33 MHz. Niezależnie producenci, przede wszystkim firmy AMD i Cyrix, zaoferowali wersje pracujące z szybkością do 40 MHz. Ogólnie rzecz biorąc, „klony" 386 w pełni odpowiadały funk-cjonałnie procesorom Intela, co oznacza, że mogły wykonywać każdy program opracowany dła procesorów Intel. Procesor 386DX może zaadresować 4 GB fizycznej pamięci. Wbudowany menadżer pamięci wirtualnej (ang. virtual memory manager) udostępnia programom gigantyczną przestrzeń adresową pamięci wirtuałnej o rozmiarze 64 TB. (jeden fera&ą/f (TB) to ł 099511 627 776 bajtów.) Procesory 386SX Procesor 386SX, oznaczany roboczym symbolem P9, został opracowany z myślą o producentach komputerów, którzy chcieliby mieć do dyspozycji układ o możliwościach 386 za cenę 286. Podobnie jak 286, 386 SX komunikując się np. z pamięcią przesyła słowa o długości 16 bitów. Struktura wewnętrzna 386SX jest jednak identyczna ze strukturą układu DX, procesor ten posiada 32-bitowe rejestry wewnętrzne, dzięki czemu może wykonywać 32-bitowe aplikacje. Procesor 386SX ma 24-bitową magistralę adresową, podobnie jak 286, zamiast pełnej 32-bitowej magistrali adresowej procesora 386. Dlatego też może zaadresować co najwyżej ł6 MB pamięci fizycznej, a nie 4 GB, jak procesor 386DX. Przed wycofaniem z produkcji układ 386SX był dostępny w wersjach zegarem od 16 do 33 MHz.
265
Pojawienie się 386 oznaczało koniec ery 286, ponieważ procesor 386 oferował wydajniejszą jednostkę MMU oraz wirtuałny tryb rzeczywisty. Pracując pod kontrołą menadżera aplikacji, np. Windows czy OS/2, procesor 386SX umożliwia wykonywanie wietu aptikacji systemu MS-DOS jednocześnie. Możliwość wykonywania programów pisanych spe-cjałnie dla 386 jest kolejną ważną przewagą 386SX nad procesorami 286 i starszymi. Np. system operacyjny Windows 3. i pracuje niemal równie dobrze na komputerze z procesorem 386SX, jak i 386DX. Jedną z częściej powtarzanych błędnych opinii na temat 386SX jest rzekoma możliwość umieszczenia tego procesora w komputerze 286, dzięki czemu miałby powstać komputer o możliwościach 386. Nie jest to prawdą, ponieważ układy 286 i 386 różnią się wyprowadzeniem końcówek i nie pasują do tego samego gniazda. Opracowano jednak szereg rozwiązań technicznych, umożliwiających zainstalowanie procesora 386 w komputerze 286. Jeżeli chodzi o „czystą" szybkość procesora, to wymiana taka nie spowoduje dużego wzrostu wydajności, ponieważ interfejs komunikacyjny z pamięcią i urządzeniami zewnętrznymi płyt głównych 286 jest ograniczony do 16 bitów. Procesor 386SX 16 MHz nie jest wyraźnie szybszy od 286 16 MHz, jednak góruje nad nim dzięki zastosowaniu techniki zarządzania pamięcią (MMU), pod warunkiem jednak, że płyta główna obsługuje ten mechanizm. Na komputerze 286 z procesorem 386 można również uruchamiać oprogramowanie pisane specjalnie dla procesora 386.
266
Procesory 386SL Kolejną odmianą procesora 386 jest układ 386SL. Procesor ten zużywa mniej energii niż 386SX, przy takich samych możliwościach obliczeniowych. Układ ten został opracowany z myślą o komputerach przenośnych, w których pożądany jest niski pobór energii. Procesor SL posiada specjalne funkcje zarządzania energią, które są dość istotne w przypadku komputerów zasilanych z baterii. Układ ten posiada kilka trybów ,,uśpienia", w których w różnym stopniu oszczędza energię elektryczną. Rozszerzona architektura procesora SL obejmuje także zarządzanie przerwaniami komputera (ang. ^ys/ćw Afana^wen; /?!fcrrMpf, SMI), umożliwiając w ten sposób korzystanie z funkcji zarządzania energią. Układ ten obsługuje również dodatkową pamięć typu HM (Lotus Intel Microsoft), a także ma wbudowany kontroler pamięci podręcznej (cache), który umożliwia dołączenie od 16 do 64 kB zewnętrznej pamięci cache. Opisane funkcje tłumaczą zwiększenie łiczby tranzystorów w układzie SL do 855000, ilość ta przewyższa nawet liczbę tranzystorów w procesorze 386DX (275000). Procesor 386SL dostępny jest również w wersji z zegarem 25 MHz. Firma Intel oferowała również przez pewien czas układ 82360SL I/O, który wspomaga pracę procesora 386SL w komputerach typu taptop. Układ ten odpowiada za obsługę urządzeń zewnętrznych, takich jak porty szeregowe i równoległe, kontroler DMA (bezpośredniego dostępu do pamięci), kontroler przerwań oraz układ zarządzenia energią w procesorze 386SL. Układ 82360SL I/O współpracuje z procesorem 386SL, tak aby jak najlepiej sprostać wymaganiom miniaturyzacji i niskiego poboru mocy w komputerach typu portable i laptop.
Pojawienie się 386 oznaczało koniec ery 286, ponieważ procesor 386 oferował wydajniejszą jednostkę MMU oraz wirtuałny tryb rzeczywisty. Pracując pod kontrołą menadżera aplikacji, np. Windows czy OS/2, procesor 386SX umożliwia wykonywanie wietu aptikacji systemu MS-DOS jednocześnie. Możliwość wykonywania programów pisanych spe-cjałnie dla 386 jest kolejną ważną przewagą 386SX nad procesorami 286 i starszymi. Np. system operacyjny Windows 3. i pracuje niemal równie dobrze na komputerze z procesorem 386SX, jak i 386DX..Pojawienie się 386 oznaczało koniec ery 286, ponieważ procesor 386 oferował wydajniejszą jednostkę MMU oraz wirtuałny tryb rzeczywisty. Pracując pod kontrołą menadżera aplikacji, np. Windows czy OS/2, procesor 386SX umożliwia wykonywanie wietu aptikacji systemu MS-DOS jednocześnie. Możliwość wykonywania programów pisanych spe-cjałnie dla 386 jest kolejną ważną przewagą 386SX nad procesorami 286 i starszymi. Np. system operacyjny Windows 3. i pracuje niemal równie dobrze na komputerze z procesorem 386SX, jak i 386DX. Procesory 386SL Kolejną odmianą procesora 386 jest układ 386SL.Procesor ten zużywa mniej energii niż 386SX, przy takich samych możliwościach obliczeniowych. Układ ten został opracowany z myślą o komputerach przenośnych, w których pożądany jest niski pobór energii. Procesor SL posiada specjalne funkcje zarządzania energią, które są dość istotne w przypadku komputerów zasilanych z baterii. Układ ten posiada kilka trybów ,,uśpienia", w których w różnym stopniu oszczędza energię elektryczną.Rozszerzona architektura procesora SL obejmuje także zarządzanie przerwaniami komputera (ang, SMI), umożliwiając w ten sposób korzystanie z funkcji zarządzania energią. Układ ten obsługuje również dodatkową pamięć typu HM (Lotus Intel Microsoft), a także ma wbudowany kontroler pamięci podręcznej (cache), który umożliwia dołączenie od 16 do 64 kB zewnętrznej pamięci cache.Opisane funkcje tłumaczą zwiększenie łiczby tranzystorów w układzie SL do 855000, ilość ta przewyższa nawet liczbę tranzystorów w procesorze 386DX (275000). Procesor 386SL dostępny jest również w wersji z zegarem 25 MHz.Firma Intel oferowała również przez pewien czas układ 82360SL I/O, który wspomaga pracę procesora 386SL w komputerach typu taptop. Układ ten odpowiada za obsługę urządzeń zewnętrznych, takich jak porty szeregowe i równoległe, kontroler DMA (bezpośredniego dostępu do pamięci), kontroler przerwań oraz układ zarządzenia energią w procesorze 386SL. Układ 82360SL I/O współpracuje z procesorem 386SL, tak aby jak najlepiej sprostać wymaganiom miniaturyzacji i niskiego poboru mocy w komputerach typu portable i taptop. Koprocesor 80387 Koprocesor 80387 pracuje asynchronicznie w stosunku do procesora, jednak komputery 386 są zaprojektowane w ten sposób, że koprocesor pracuje z częstotliwością procesora głównego. W przeciwieństwie do koprocesora 80287, który różnił się od 8087 jedynie rozmieszczeniem końcówek. 80387 jest układem o wysokiej wydajności, przystosowanym specjatnie do współpracy z procesorem 386.Wszystkie układy 387 są wykonane w technoiogii CMOS, charakteryzującej się niskim poborem mocy. Są dwie wersje układu 387: koprocesor 80387DX,
przeznaczony do współpracy z procesorem 386DX, i koprocesor 387SX współpracujący z procesorami 386SX, SL i SLC.Firma Inte) oferowała początkowo koprocesor 387DX w wersjach pracujących z różnymi częstotliwościami zegara. Jednak kiedy została opracowana wersja 33 MHz, to trzeba była zmniejszyć maskę fotograficzną układu. Zaowocowało to wzrostem wydajności koprocesora o około 20 procent.Z powodu opóźnień w pracach firmy Intel nad koprocesorem 387, niektóre z pierwszych komputerów 386 zostały wyposażone w gniazdo koprocesora 287. Jednak osiągnięty przy Instalacja procesora 387DX w komputerze jest prosta, należy jednak uważać, aby prawidłowo umieścić procesor w gnieździe, ponieważ niewłaściwe włożenie koprocesora spowoduje zniszczenie układu. Najczęstszą przyczyną awarii koprocesora 387DX jest właśnie jego nieprawidłowe umieszczenie w gnieździe. Na wielu płytach głównych koprocesor 387DX jest usytuowany odwrotnie niż pozostałe ,,duże" układy. Aby uniknąć zniszczenia koprocesora, natęży instałować go dokładnie według instrukcji. Gwarancja udzielana przez firmę łntel nie obejmuje koprocesorów uszkodzonych wskutek nieprawidłowego włożenia ich do gniazda.Niektórzy producenci opracował! własne wersje koprocesorów Intel 387, niektóre z nich były rekłamowane jako szybsze od pierwowzoru. Stopień kompatybilności tych układów z koprocesorem 387 jest bardzo dobrytym wzrost wydajności pozostawiał wiele do życzenia. Koprocesory Weitek W 1981 roku kiłku inżynierów z firmy Inteł założyło firmę Weitek Corporation. Firma ta /ajmowała się opracowywaniem koprocesorów arytmetycznych znajdujących zastosowanie w wiełu komputerach, w tym także w komputerach opartych o procesory firmy Motorola. Inteł zlecił firmie Weitek opracowanie koprocesora arytmetycznego dła procesora 386, ponieważ prace Inteła nad własnym koprocesorem nie były wówczas zbyt zaawansowane. Rezultatem był koprocesor arytmetyczny Weitek H 67, który wykorzystywał zastrzeżoną przez firmę Weitek listę rozkazów, niekompatybiiną z Usta rozkazów koprocesora Intel 387.W łistopadzie 1987 roku firma Weitek zaprezentowała koprocesor 4167. Aby układ ten mógł być zainstatowany w komputerze, niezbędne jest dodatkowe gniazdo. Przed decyzją o kupnie koprocesora Weitek natęży się upewnić, czy będzie on obsługiwany przez oprogramowanie. Należałoby również zasięgnąć informacji u producentów oprogramowania, czy układy Weitek przewyższają pod względem wydajności koprocesory firmy Intel. Błędy procesora 386 Niektóre z wczesnych modeli procesora Inteł 386DX 16MHz mają w sobie błąd, który można napotkać przy rozwiązywaniu problemów ze sprzętem. Błąd ten tkwi najwyraźniej w procedurze mnożenia ticzb 32-bitowych i objawia się w czasie uruchamiania aptikacji 32-bitowych w systemach operacyjnych OS/2, UNIX/386 czy Windows w trybie Enhanced. Niektóre programy zarządzania pamięcią 386 (386 memory managers) również mogą powodować wystąpienie tego błędu, natomiast nie wystąpi on w 16-bitowych systemach operacyjnych (takich jak DOS czy OS/2 l.x).Błąd ten z reguły objawia się zawieszeniem komputera. Jego wykrycie może być trudne, ponieważ pojawia się okresowo i zależnie od oprogramowania. Również programy testujące będą miały trudności z wykryciem tego błędu, jedynie firma Inteł potrafi za pomocą specjalistycznego sprzętu określić, czy procesor jest wadliwy. Niektóre programy testujące potrafią wykryć błąd i zidentyfikować wadliwy procesor, jednak nie potrafią wykryć wszystkich wadliwych procesorów. Jeżeli program testujący informuje o wykryciu błędu, to procesor rzeczywiście ma błąd, jednak jeżeli program nie wykryje błędu, nie oznacza to wcale, że go w procesorze nie ma.Firma Intel zwróciła się do swoich klientów z propozycją sprawdzenia procesorów, co do których zachodzi podejrzenie, że są wadliwe, jednak wielu sprzedawców tego nie uczyniło. Firma Inteł sprawdza procesor 386 i w przypadku wykrycia w nim błędu wymienia go na sprawny układ. Wadliwe procesory są następnie sprzedawane na wyprzedaży ałbo z przeznaczeniem do wykorzystania w komputerach domowych, na których nie byłyby uruchamiane 32-bitowe aplikacje. Takie układy były oznaczane symbolem
16-bit SW, oznaczającym przeznaczenie procesora tylko do wykonywania programów 16-bitowych.Układy, które pomyślnie przeszły test, oraz kolejne wersje procesorów wolne od błędu, zostały oznaczone znakiem XX (podwójna sigma). Procesory 386DX, które nie mają tego znaku, nie były testowane przez firmę Intel i mogą być niesprawne.Poniższe oznaczenie wskazuje na procesor, który nie był testowany, może więc być to zarówno układ prawidłowy, jak i wadliwy. Układ taki należy zwrócić producentowi komputera, który bezpłatnie wymieni go na procesor sprawny. 80386-16 Kolejne oznaczenie wskazuje na układ, w którym w czasie testu wykryto błąd mnożenia 32-bitowego. Procesor taki współpracuje z oprogramowaniem 16bitowm (np. systemem operacyjnym DOS), lecz nie z programami 32-bitowymi, wykorzystującymi specyficzne cechy procesora 386 (np. Windows czy OS/2). 80386-16 16bitSWOnly Kotejne oznaczenie wskazuje na procesor, który pomyśtnie przeszedł test. Układ ten ma wszystkie cechy, jakich oczekuje się od 386. 80386-16Błąd w procesorze został wykryty i poprawiony, zanim jeszcze firma Inte! dodała do numeru seryjnego oznaczenie DX. Tak więc układy oznaczone 80386DX tub 80386SX są woine od błędu. Inny probtem łączy się z procesorem 386DX i można go doświadczyć w dość specyficzny sposób. Kiedy system operacyjny XENIX [ub inna wersja systemu UNIX dta procesora 80386 pracuje na komputerze z koprocesorem 80387, to przy jednoczesnym spełnieniu pewnych warunków dochodzi do zawieszenia komputera. Probtem ten nie występuje jednakże w środowisku systemu operacyjnego DOS. Aby komputer się zawiesił, musząjednocześnie zajść następujące warunki: + Aktywne żądanie strony pamięci wirtuałnej. + W komputerze znajduje się i jest aktywny koprocesor 387DX. + Trwa operacja bezpośredniego dostępu do pamięci (DMA). + Procesor 386 jest w cyktu oczekiwania. Jeżeti jednocześnie wystąpią te wszystkie warunki, to procesor 386DX zatrzyma swoją pracę oczekując na akcję koprocesora 387DX, a koprocesor będzie oczekiwał na akcję procesora. Obydwa układy będą w stanie oczekiwania przez nieokreśłony czas. Probłem dotyczy niektórych wersji 386DX. a nie koprocesora 387DX.Zaraz po odkryciu tej wady, firma Inteł poinformowania o niej swoich kontrahentów pubtikując dokument pt. „Errata 21". Od tego momentu rozwiązanie probtemu natężało do producentów sprzętu tub oprogramowania, którzy powinni w tym cetu zmodyfikować swoje produkty. Niektóre firmy, np. IBM czy Compaq, aby zapobiec pojawianiu się takich problemów, dokonały modyfikacji swoich płyt głównych.Probtem ten dotyczy tytko wersji B procesora 386DX, nie występuje natomiast w późniejszych wersjach D. Wersję D procesora 386DX można zidentyfikować poprzez titery DX w oznaczeniu procesora (np. 386DX-20). Jeżeti w oznaczeniu procesora są titery DX, to układ ten jest pozbawiony błędu.
P4 (486) Procesory czwartej generacji Procesory 486 Kotejnym krokiem w na drodze zwiększania szybkości procesorów był układ Intet 80486 (oznaczany w skrócie 486). Nowe możtiwości tego procesora stały się bodźcem dta wzrostu przemysłu software'owego. Dziesiątki mitionów kopii systemu operacyjnego.
Windows oraz miliony kopii systemu OS/2 mogły zostać sprzedane przede wszystkim dlatego, że procesor 486 sprawił, iż graficzny interfejs użytkownika (GUI) stał się real-nym narzędziem dta osób, które codziennie pracują przy komputerze. Cztery cechy procesora 486 spowodowały, że był on w przybliżeniu dwa razy szybszy od odpowiadającego mu pod względem częstotliwości zegara procesora 386: Krótszy czas Instrukcje w procesorze 486 są wykonywane przeciętnie w czasie dwóch cykli zegara, podczas gdy w procesorze 386 wykonanie instrukcji zajmowało średnio ponad cztery cykle. Wbudowana pamieć cache.Pamięć ta ma współczynnik trafienia rzędu 90-95 procent, co oznacza, że tylko 5-10 procent odczytów z pamięci wymaga wstawienia przez procesor cykli oczekiwań. Zewnętrzna pamięć cache może jeszcze bardziej polepszyć ten współczynnik. Transfer danych w trybie burst. Standardowy 32-bitowy (4 bajty) transfer danych pomiędzy procesorem a pamięcią zajmuje dwa cykle zegara. Oprócz tych 4 bajtów można przesłać dodatkowo do 12 bajtów danych (co odpowiada trzem transferom), przy czym czas trwania pojedynczego transferu wynosi jeden cykl. W ten sposób w czasie pięciu cykli zegara można przesłać ciągły blok danych o długości 16 bajtów (normalnie zajęłoby to co najmniej 8 cykli). Jeszcze lepszy efekt można osiągnąć, gdy przesyłane słowa mają długość tylko 8 lub 16 bitów. Wewnetrzy ,synchroniczny koprocesoarytmetyczny o rozszerzonych możliwościach. Koprocesor arytmetyczny, pracując synchronicznie z procesorem, wykonuje operacje matematyczne, co zajmuje mu mniej cykli niż poprzednim wersjom koprocesora. Przeciętnie wewnętrzny koprocesor arytmetyczny procesora DX zapewnia 3-krotnie większą wydajność wykonywania operacji matematycznych niż zewnętrzny układ 387. Procesor 486 jest z grubsza dwa razy szybszy od 386, co oznacza, że procesor 386DX 40 MHz jest prawie tak samo szybki jak 486SX 20 MHz. 486 stał się godnym uwagi nabytkiem, ponieważ mógł być w prosty sposób zamieniony na nowszą wersję DX2 czy DX4. Domyślać się można, że nadejście procesora 486 spowodowało właściwie śmierć procesora 386 na rynku.Zanim pojawił się procesor 486, wielu użytkowników nie korzystało z interfejsu graficznego, ponieważ mało kto miał czas na siedzenie przed ekranem i oczekiwanie godzinami, bo komputer wykonuje właśnie ważną operację w tle, która nie może zostać przerwana. Procesor 486 zmienił tę sytuację. Wiele osób uważa, że pojawienie się 486 dało początek zadomowieniu się na dobre interfejsu GUI.Gdy pojawił się procesor Pentium, firma Intel zaczęła obniżać cenę 486, aby w ten sposób zachęcić producentów komputerów do produkcji przede wszystkim komputerów z procesorem 486. Podobnie firma Intel postąpiła w późniejszym czasie z procesorem Pentium, zwiastując w ten sposób koniec ery 486. Procesor 486 znajduje się obecnie w ofercie firmy Intel tylko jako element do wykorzystania w aplikacjach mikroprocesorowych, przede wszystkim w kartach rozszerzających.Większość procesorów 486 była oferowana w wersjach różniących się maksymałnymi c/cstotliwościami pracy, od ł6 do 120 MHz. Procesory 486 różniły się między sobą także rozmieszczeniem końcówek. Układy SX, DX i DX2 były dostępne w praktycznie identycznych obudowach )68-końcówkowych, podczas gdy procesory OverDrive można było spotkać zarówno w obudowach ł68-końcówkowych, jak i specjalnych, 169-końcówkowych obudowach OverDrive. (procesor w takiej obudowie nazywany bywa również 487SX). Jeżeli na płycie głównej 486 znajdują się dwa gniazda procesora, to do jednego z nich pasuje procesor w obudowie ł69końcówkowej, a do drugiego - w 168-końcówkowej obudowie OverDrive. Większość nowych płyt głównych, wyposażonych w gniazdo procesora typu Z1F (Zero Insertion Force). akceptuje w zasadzie wszystkie procesory 486, z wyjątkiem DX4. Procesor DX4 nie był akceptowany, ponieważ był zasilany napięciem 3,3 V, a nie, jak większość ówczesnych procesorów, napięciem 5 V.
Procesor przystosowany do pracy z określoną częstotliwością może pracować zawsze z mniejszą częstotliwością. Np. procesor 486 100 MHz będzie pracował z częstotliwością 75 MHz, jeżeli zostanie zainstalowany na płycie głównej 25 MHz. Należy zwrócić uwagę, że procesory DX2/OverDrive pracują z częstotliwością równą podwojonej częstotliwości płyty głównej, podczas gdy częstotliwość pracy procesora DX4 może być dwa, dwa i pół albo trzy razy większa od częstotliwości pracy płyty głównej. W tabeli 6.16 zebrano wartości częstotliwości pracy procesorów DX2 i DX4 dla różnych częstotliwości płyty głównej. Tabeta 6.16. Czestotliwość częstotliwości płyty głównej.
procesorów
DX2i
DX4
dla
Częstottiwość głównej
16płyty MHz 20 MHz 25 MHz 30MHz
40 MHz
50 MHz
Procesor DX2
32 MHz 40 MHz 50 MHz 66 MHz
80 MHz
-
Procesor DX4
32 MHz 40 MHz 50 MHz 66 MHz
80 MHz
100 MHz
(mnożnik 2) Procesor DX4 (mnożnik 40 MHz 50 MHz 63 MHz 83 MHz 2) Procesor DX4
różnych
100 MHz -
48 MHz 60 MHz 75 MHz 100 MHz 120 MHz -
(mnożnik 2)
Wewnętrzna częstotliwość pracy procesora DX4 jest ustalana za pomocą sygnału CLKMUL (Clock Multiplier), znajdującym się na wyprowadzeniu R-17 gniazda Socket l lub S-18 gniazda Socket 2, 3 lub 6. Końcówka CLKMUL jest próbkowana tylko w czasie restartu procesora i określa stosunek częstotliwości wewnętrznej procesora do częstotliwości sygnału zegara magistrali CLK, obecnego na końcówce C-3 (Socket 1) lub D-4 (SOCKET 2, 3 lub 6). Jeżeli sygnał CLKMUL ma niski stan logiczny, to wewnętrzna częstotliwość procesora będzie podwojoną częstotliwością magistrali. Jeżeli końcówka ta będzie miała stan wysoki albo nie będzie podłączona (tak jak w większości płyt głównych), to stosunek częstotliwości będzie równy trzy. Jeżeli końcówka CLKMUL zostanie podłączona do wyjścia BREQ (Bus Request) na końcówce Q-15 (socket 1) lub R16 (socket 2, 3 lub 6), to wewnętrzna częstotliwość procesora będzie 2,5 rażą większa od częstotliwości zewnętrznego sygnału CLK. Poniższa tabela przed-
stawia podsumowanie tego zagadnienia: Jeżeti chcemy zmienić częstotliwość pracy procesora, to musimy przedtem ustalić, jak opisane końcówki są ze sobą połączone oraz czy jest możliwa zmiana tych ustawień. Na większości płyt można znaleźć jedną lub dwie zworki w pobłiżu gniazda procesora. Ich ustawienia powinny być opisane w dokumentacji płyty głównej, o ite zmiana konfiguracji jest dopuszczalna. Interesującą możliwością jest uruchomienie procesora DX-4 w tzw. trybie podwójnym (ang. doubled modę), kiedy płyta główna pracuje z częstotliwością 50 MHz. W ten sposób można mieć do dyspozycji komputer z szybką magistratą pamięciową i procesorem pracującym z tą samą częstotliwością 100 MHz, z jaką pracowałby w trybie 33/łOO MHz.
W sytuacji, kiedy płyta główna ma gniazda rozszerzające Local-Bus, częstotliwość płyty musi być obniżona do 33 lub 40 MHz, aby karty rozszerzające pracowały poprawnie. Większość nowszych płyt z magistratą Locał Bus może w celu zachowania kompatybilności obsługiwać gniazda Local-Bus w trybie buforowanym, dodawać cykle oczekiwania lub selektywnie zmieniać częstotliwość tylko w gniazdach Local-Bus. W większości przypadków płyty takie nic będą pracowały poprawnie z częstotliwością 50 MHz. Informacje na temat konfiguracji danej płyty głównej znaleźć można w dokumentacji płyty lub w dokumentacji układu kontrolera płyty. Jeżeli decydujemy się na wymianę procesora w komputerze, to powinniśmy się upewnić, że instalowany procesor pasuje do gniazda na płycie głównej. W szczególności umieszczając procesor DX4 w starszym komputerze będziemy musieli zastosować regulator napięcia, obniżający poziom napięcia zasilania do 3,3 V. Włożenie procesora DX4 do gniazda 5 V grozi zniszczeniem układu! Rodzina procesorów 486 została opracowana pod kątem zapewnienia wysokiej wydajności pracy. Procesory 486 integrują w pojedynczym układzie podzespoły, które poprzednio były osobnymi eiementami: kontroler pamięci cache i koprocesor arytmetyczny. Procesory 486 również zostały opracowane z myśłą o przyszłej rozbudowie komputera. Większość komputerów 486 może zostać „unowocześniona" poprzez proste dodanie lub wymianę procesora, co powoduje podwojenie efektywnej szybkości komputera. Procesory 486DX Oryginatny procesor 486DX został zaprezentowany 10 kwietnia 1989 roku, a pierwsze komputery 486DX pojawiły się w roku 1990. Pierwszy procesor 486 pracował z mak-symatną częstottiwością 25 MHz, a kołejne wersje pracowały z częstotliwościami 33 i 50 MHz. Oryginatny procesor 486 był zasitany napięciem 5 V i zamknięty w 168-końcówkowej obudowie typu PGA (Pin Grid Aray). Obecnie układ 486 dostępny jest również w wersji 5 V w 196-końcówkowej obudowie typu PQFP (Plastic Quad Ftat Pack) i 3,3 V w 208-końcówkowej obudowie typu SOJFP (Smatl Quad Ftat Pack). Późniejsze modete procesora są dostępne również w wersji SL Enhanced, opracowanej przede wszystkim z myślą o komputerach typu portable czy taptop, w których oszczędność energii jest dość istotna. Podstawową cechą odróżniającą procesor 486 od starszych procesorów 386 jest większy stopień integracji i możtiwość wymiany procesora w komputerze na nowszą wersję. Układ 486DX łączy w jednej obudowie procesor, koprocesor arytmetyczny, kontroier pamięci cache i pamięć cache. Ponieważ procesor 486 został opracowany z mysią o przyszłej wymianie na nowszą wersję, dła większości komputerów dostępne są procesory OverDrive, które są dwa razy
szybsze od procesorów przez nie zastępowanych. Procesor 486DX jest wykonany w technologii CMOS (Complimentary Metal Oxide Semi-conductor), charakteryzującej się niskim poborem energii. Procesor ten ma 32-bitowe rejestry wewnętrzne, 32-bitową zewnętrzną magistralę danych i 32-bitową magistratę adresową. Parametry te są takie same jak w procesorze 386DX. Reklamowe określenie ,,procesor 32-bitowy" bierze się z rozmiaru wewnętrznych rejestrów procesora. Układ 486DX zawiera 1,2 mitiona tranzystorów, zawartych na płytce krzemu wielkości paznokcia. Liczba tranzystorów jest czterokrotnie większa niż w procesorze 386 i daje dobre pojęcie o mocy obliczeniowej procesora 486. Standardowy układ 486DX zawiera w jednej obudowie procesor, jednostkę zmienno-przecinkową (koprocesor arytmetyczny), jednostkę zarządzania pamięcią i kontroter pamięci cache wraz z pamięcią cache o rozmiarze 8 kB. Dzięki zastosowaniu wewnętrznej pamięci cache ora/ wydajniejszej jednostki arytmetyczno-logicznej, procesory rodziny 486 mogą wykonywać pojedynczą instrukcję w średnim czasie tytko dwóch cykłi zegara. Dta porównania, procesory 286 i 386 wykonują pojedynczą instrukcję w czasie 4.5 cykli, a procesory 8086 i 8088 - w czasie 12 cykli. Pracując z okreśtonączęstottiwością zegara (w MHz), procesor 486 jest prawie dwa razy wydajniejszy od procesora 386 pracującego z tą samą częstottiwością. Np. komputer z procesorem 486SX 16 Mhz odpowiada w przybtiżeniu komputerowi z procesorem 386DX 32 MHz, a komputer z procesorem 486SX 20 MHz - komputerowi z procesorem 386DX 40 MHz. Wszystkie procesory 486 pracujące z częstottiwością wyższą od 20 MHz są szybsze od dowolnego procesora serii 386.Układ 486 pod względem tisty rozkazów jest w pełni kompatybitny z poprzednimi procesorami firmy Intel, np. 386, oferując jednocześnie pewną itość dodatkowych instrukcji (większość z nich służy do zarządzania wewnętrzną pamięcią cache). Rysunek 6.19. Układ procesora 486
Podobnie jak 386DX, procesor 486 może fizycznie zaadresować do 4 GB pamięci i zarządzać pamięcią wirtualną o rozmiarze do 64 TB. Układ 486 w pełni obsługuje trzy tryby pracy obecne w procesorze 386: tryb rzeczywisty, chroniony i
wirtuatny tryb rzeczywisty. W trybie rzeczywistym 486, podobnie jak 386, może bez żadnych zmian wykonywać programy pisane dta procesora 8086. Tryb chroniony, podobnie jak w przypadku procesora 386. umożHwia stosowanie stronicowania pamięci i przełączanie zadań. W wirtuahiym trybie rzeczywistym możłiwe jest, poprzez symutację trybu 8086 (podobnie jak w 386), jednoczesne wykonywanie wietu programów systemu operacyjnego DOS. Dzięki tym mechanizmom, w środowisku systemu operacyjnego Windows czy OS/2 mogą być wykonywane jednocześnie aptikacje !6-bitowe i 32-bitowe, z zapewnieniem sprzętowej ochrony obszarów pamięci zajmowanych przez poszczegótne aphkacje. Jeżeti działanie jednego programu zakończy się niepowodzeniem, to dzięki temu, że pozostałe aptikacje są zabezpieczone, można zwotnić pamięć wadtiwej aptikacji za pomocą metod udostępnianych przez system operacyjny. Procesor serii 486DX ma wbudowany koprocesor arytmetyczny, okreśtany czasami jako MCP (math coprocessor) tub FPU (Ftoating-Point Unit). Wbudowany koprocesor odróżnia procesory serii 486 od poprzednich, w których trzeba było zastosować osobny koprocesor arytmetyczny, jeżeti chciało się wykonywać szybkie obticzenia tub złożone operacje matematyczne. Jednostka zmiennoprzecinkowa procesora 486 jest całkowicie kompatybitna z zewnętrznym koprocesorem 387, współpracującym z procesorem 386. Wewnętrzny koprocesor 486 jest jednak dwa razy szybszy od 387, ponieważ pracuje synchronicznie z procesorem i wykonuje większość instrukcji w czasie dwa razy mniejszej ticzby cykti zegara niż 387. Procesor 486SL Autonomiczny uktad 486 SL by) wytwarzany przez stosunkowo krótki czas. Zwiększone możliwości 486SL byty dostępne praktycznie we wszystkich wersjach procesora 486 (SX, DX i DX2). Określenie .% E/ł&łrtwd'/;/ oznacza zbiór specjalnych cech procesora. które uwzględniają oszczędzanie energii. Układy SL. Rntianced początkowo były opracowane z myślą o komputerach typu laptop czy notebook zasilanych z baterii, znalazły jednak także zastosowanie w komputerach typu desktop. Układy te wykorzystują specjalne techniki oszczędzania energii, takie jak tryb uśpienia (ang. sleep modę) czy zmniejszenie częstotliwości zegara, dzięki czemu zmniejsza się pobór energii. Procesory te są również dostępne w wersji 3,3 V. Firma tntel opracowała nowy system zarządzania energią SM. len nowy tryb pracy jest całkowicie niezależny od pozostałych rozwiązań pro-cesora, zarówno sprzętowych, jak i programowych. SMM udostępnia zasoby sprzętowe, takie jak zegary, rejestry i układy logiczne we/wy. za pomocą których możliwa jest kontrola i odłączanie zasitania elementów komputera, bez wystąpienia interferencji z pozostałymi zasobami komputera. Procedury SMM są wykonywane w przeznaczonym specjalnie do tego celu tzw. obszarze pamięci zarządzania systemem (ang. System Management Memory). Pamięć ta jest niewidoczna dla systemu operacyjnego i aplikacji, dlatego nie może z nimi interferować. Do obsługi zdarzeń związanych z zarządzaniem energią SMM wykorzystuje przerwanie SMt (.Sy.s7e/M A&w
systemu operacyjnego czy aplikacji. Wystarczy nacisnąć pr/Ącisk o/naczony suspend/resume i komputer może dalej pracować. Procesor SL znajdujący się w stanie zawieszenia nie powinien zużywać prawie żadnej energii. Oznacza to, że komputer może pozostać w stanie zawieszenia przez długie tygodnie i wznowić działania dokładnie w tym samym miejscu, w którym je przerwał. Będąc w stanie zawieszenia, komputer może bezpiecznie przez długi czas przechowywać dane w pamięci RAM, jednak roztropnie jest zapisać dane na dysk. Procesor 486SX Procesor 486SX. zaprezentowany w kwietniu 1991 roku, był w zamyśte producenta tańszą wersją 486. Procesor ten praktycznie nie różni od procesora DX, pozbawiony jest jednak jednostki zmiennoprzecinkowej.Jak już powiedziałem wcześniej w tym rozdziałe, procesor 386SX był ograniczoną (niektórzy twierdzą, że „okaleczoną") wersją 32-bitowego układu 386DX. 386SX miał zupełnie inne niż 386DX rozmieszczenie końcówek i nie pasował do tego samego gniazda, tnaczej rzecz się ma w przypadku 486SX. Procesor 486SX jest procesorem w pełni 32-bitowym i pod wzgłędem rozmieszczenia końcówek nie różni się od procesora DX. Zmianie ułegło znaczenie kiłku końcówek, jednak procesor SX pasuje do tego samego gniazda, co DX. Procesor 486SX był bardziej chwytem marketingowym niż przykładem nowej technołogii. Pierwsze wersje procesora 486SX w rzeczywistości były procesorami DX, w których wykryto błędy w koprocesorze arytmetycznym. Zamiast wyrzucać je na złom, w procesorach tych wyłączono koprocesor i sprzedawano jako układy SX. W ten sposób postępowano przez dość krótki czas, procesory SX później produkowane miały już własną maskę, różniąca się od maski układu DX. (Ma-s^a jest projektem fotograficznym procesora i jest wykorzystywana do wyrycia zawiłych ścieżek dła sygnałów ełektronicznych na płytce krzemu.) Liczba tranzystorów odzwierciedłających nową maskę w układzie scalonym spadła w wyniku zastosowania nowej maski do ł, 185 miliona (z ł ,2 miliona). Procesor 486SX był dwa razy szybszy od procesora 386DX, pracującego z taką samą częstotliwością. Firma Intet rekłamowała procesor 486SX jako idealny nabytek dla nowych użytkowników komputerów, ponieważ tacy użytkownicy rzadko uruchamiają programy wykorzystujące funkcje koprocesora arytmetycznego. Procesor 486SX był dostępny w wersji )6, 20, 25 i 33 MHz, a także w wersji SX/2 pracującej z częstotliwością do 50 lub 66 MHz. Obudowa procesora 486SX ma )68 końcówek, chociaż spotkać można wersje wykonane w technołogii montażu powierzchniowego w obudowie typu SL Enhanced. Pomimo zapewnień, jakie można było znaleźć w informacjach reklamowych firmy łnteł, nie było możliwe umieszczenie koprocesora arytmetycznego w komputerze z procesorem 486SX; koprocesor taki w ogóle nie był dostępny. W zamian za to firma Intel zaoferowała użytkownikom, którzy chcieliby rozbudować komputer, nowy procesor 486 z wbudowanym koprocesorem arytmetycznym. Włożenie takiego procesora w drugie gniazdo na płycie spowodowałoby wyłączenie obecnego procesora 486SX. Jeżełi brzmi to trochę niejasno, to wkrótce zostanie wyjaśnione; temat ten prowadzi nas bowiem w najważniejszy aspekt koncepcji procesora 486: możłiwości wymiany procesora na nowszą wersję. 487SX Koprocesor arytmetyczny 487SX, bo tak brzmiała jego oficjałna nazwa, w rzeczywistości jest kompłetnym procesorem 486DX 25 MHz z dodaną jedną końcówką oraz nieco zmienionym rozkładem wyprowadzeń. Kiedy procesor ten umieścimy w dodatkowym gnieździe znajdującym się na płycie komputera z procesorem 486SX, to obecny w komputerze procesor 486SX zostanie wyłączony przez 487SX za pomocą sygnału pochodzącego z dodatkowej końcówki. Tak
naprawdę to końcówka ta nie przenosi żadnego sygnału i ma na ce!u tylko zabezpieczenie przed niewłaściwym włożeniem procesora do gniazda. Nowy układ 487SX przejmuje w komputerze wszystkie funkcje starego procesora 486SX, a ponadto umożtiwia wykonywanie operacji zmiennoprzecinkowych. Na pierwszy rzut oka taka koncepcja wygląda dość dziwnie i mogłaby się wydawać marnotrawstwem, śpieszę więc z wyjaśnieniem. Procesor 487SX był w planach firmy Intel tytko etapem przejściowym, ponieważ w tym czasie firma przygotowała już prawdziwą niespodziankę: procesor OverDrive. Procesor DX2/OverDrive. o częstotliwości pracy równej dwukrotnej częstotliwości magistrali, pasuje do 169-końcówkowego gniazda 487SX i ma takie samo rozmieszczenie końcówek, jak układ 487SX. Procesor ten jest instalowany w komputerze dokładnie w ten sam sposób co 487SX. dlatego też każdy komputer wspótpracujący z 487SX będzie również współpracował z procesorem DX2/OverDrive. W większości przypadków można rozbudować konfigurację komputera poprzez wyjęcie procesora 486SX i zastąpienie go 487SX (tub nawet 486DX2/OverDrive), jednak firma tntel odradzała takie postępowanie. Zamiast tego firma zalecała producentom komputerów, aby wyposażali płyty główne w dodatkowe gniazdo (OverDrive), ponieważ wyjmowanie i wkładanie procesora jest ryzykowne. Obecnie firma ttitel zaleca producentom - lub nawet wywiera na nich nacisk- aby umieszczali na płycie pojedyncze gniazdo procesora typu ŻtF, dzięki czemu wymiana procesora staje się prosta nawet z fizycznego punktu widzenia. Procesory DX2/OverDrive i DX4 3 marca 1992 roku firma tntet zaprezentowała procesor DX2 pracujący z podwójną częstotliwością magistrali. 26 maja 1992 roku tntel oznajmił, że procesory DX2 będą również dostępne w sprzedaży detalicznej jako wersja OverDrive. Pierwotnie procesor 486 DX2/OverDrive był dostępny w obudowie 169-końcówkowej, dlatego mógł być stosowany tylko w komputerach z procesorem 486SX. które były wyposażone w odpowiednie gniazdo procesora o zmienionym rozkładzie końcówek. 14 wrześnie 1992 roku firma tntel zaprezentowała procesor OverDrive w wersji 168-końcówkowej, zastępującej procesor 486DX. Procesor ten może pracować w komputerze 486 (SX lub DX), nawet jeżeli w komputerze brak )69-końcókowego gniazda procesora. Kiedy chcemy zainstalować nowy procesor, to po prostu umieszczamy go w gnieździe, po czym mamy komputer pracujący dwa razy szybciej. Procesory DX2/OverDrive pracują z częstotliwością dwukrotnie przewyższającą czę-stottiwość płyty głównej. Np. jeżeli płyty główna pracuje z częstotliwością 25 MHz, to procesor DX2/OverDrive pracuje z wewnętrzną częstotliwością 50 MHz; podobnie, je-żeti częstotliwość płyty wynosi 33 MHz, to wewnętrzna częstotliwość procesora jest równa 66 MHz. Podwojenie częstotliwości pracy procesora nie ma wpływu na wydajność pozostałych etementów komputera, wszystkie podzespoły płyty głównej pracują tak, jakby na płycie był obecny standardowy procesor 486. Dtatego nie trzeba wymieniać pozostałych podzespołów, np. pamięci, aby dostosować je do szybkości nowego procesora. Układy DX2/OverDrive dostępne były w wersjach pracujących z trzema częstotliwościami: + DX2/OverDrive 40 MHz - dła płyt głównych ) 6 MHz tub 20 MHz + DX2/OverDrive 50 MHz - d)a płyt głównych 25 MHz +DX2/OverDrive 66 MHz - dła płyt głównych 33 MHz Zauważmy, że wartości te odpowiadają maksymatnej szybkości, z jaką może działać procesor. Bez żadnego probtemu można zastąpić procesor 66 MHz układem 50 MHz a!bo 40 MHz. chociaż oczywiście procesor pracowałby wówczas wolniej. Rzeczywista częstotliwość pracy procesora jest podwojoną częstotliwością płyty głównej. Np. jeżeti w komputerze 486SX )6 MHz umieścimy procesor DX2/OverDrive, to będzie on pracował tylko z częstotłiwością 32 MHz.
Firma !nteł swego czasu utrzymywała, że żaden z procesorów DX2/OverDrive 100 MHz nie będzie mógł współpracować z płytą główną 50 MHz, co jednak nie było prawdą, ponieważ np. procesor DX4 może być ustawiony do pracy z podwojoną częstotłiwością płyty głównej i może pracować w komputerach z płytą główną 50 MHz (zob. omówienie procesorów DX4 w datszej części rozdziału). Jedyną częścią procesora DX2. który nie pracuje z podwojoną częstotliwością, jest interfejs odpowiadający za komunikację procesora ze światem zewnętrznym, łnterfejs ten dokonuje konwersji pomiędzy wewnętrzną częstotłiwością procesora a częstotłiwością płyty głównej, dzięki czemu podwojona szybkość procesora jest niewidoczna dła reszty komputera. Pozostałe podzespoły komputera „widzą" procesor DX2 jak normalny układ 486DX. poza tym. że wszystkie instrukcje wykonywane są dwa razy szybciej.
t'kłady DX2/OverDrive są wykonane w technologii 0.8 mikrona, wykorzystanej po raz pierwszy przy produkcji procesora 486DX 50 MHz. Procesor DX2 składa się z l.ł mi-łiona tranzystorów w strukturze trójwarstwowej. Zarówno wewnętrzna pamięć cache o pojemności 8 kB, jak i jednostka arytmetyki całkowitej oraz koprocesor arytmetyczny, pracują z podwójną częstotłiwością płyty głównej. Komunikacja z pozostałymi ele-mentami komputera odbywa się, ze względu na zachowanie kompatybiłności z kartami rozszerzającymi, z pojedynczą częstotłiwością. Oprócz możliwości wymiany procesora na nowszą wersję, jedną z lepszych cech koncepcji DX2 było to, że projektanci komputera mogli opracowywać bardzo szybkie komputery z wykorzystaniem tanich płyt głównych, zamiast droższych, pracujących z wyższą częstotliwością. Oznacza to, że komputer 486DX2 był dużo tańszy od „normalnego" 486DX 50 MHz. W komputerze 486DX-50 MHz płyta główna pracuje z częstotłiwością 50 MHz, natomiast w komputerze 486DX2-50 MHz procesor pracuje z częstotliwością 50 MHz, lecz płyta główna tylko z częstotliwością 25 MHz. Wydawać by się mogło, że ..prawdziwy" komputer 486DX-50 MHz powinien być mimo wszystko szybszy od komputera pracującego ze zdwojoną częstotliwością 25 MHz i zazwyczaj tak jest. Jednak różnice w szybkości pracy są w rzeczywistości nieznaczne. Jest to spowodowane wysokim stopniem integracji procesora 486. a zwłaszcza zastosowaniem pamięci cache. Na przykład, kiedy procesor pobiera z pamięci dane lub kody rozkazów, to szybkość tej operacji jest ograniczona przez wołną częstotliwość płyty głównej, wynoszącą np. 25 MHz. Jednak ponieważ współczynnik trafienia wewnętrznej pamięci cache procesora DX2 wynosi od 90 do 95 procent, to procesor musi się odwoływać do pamięci RAM tylko w 5-)0 procentach wszystkich operacji odczytu z pamięci. Z tego powodu wydajność komputera z procesorem DX2 może bardzo zbliżyć się do wydajności komputera DX 50 MHz, przy znacznie niższej cenie. Pomimo że płyta główna pracuje tytko z częstotliwością 33 MHz, komputer z procesorem DX2 66 MHz będzie szybszy od komputera DX 50 MHz, zwłaszcza jeżeli DX2 zostanie wyposażony w dobrą pamięć cache drugiego poziomu. Wiele płyt głównych 486 jest wyposażonych w dodatkową pamięć cache, znajdującą się na zewnętrz procesora. Pamięć ta umożliwia procesorowi znacznie szybszy dostęp do pamięci RAM. Rozmiar zewnętrznej pamięci cache może wahać się w granicach od 16 do 512 kB lub nawet więcej. W przypadku procesora DX2 zewnętrzna pamięć cache jest szczególnie istotna, jeżeli zależy nam na jak największym wzroście wydajności komputera, ponieważ zastosowanie zewnętrznej pamięci cache znacznie ogranicza łicz-bę wstawianych cykli oczekiwania procesora w czasie zapisu do pamięci RAM lub wtedy, gdy próba odczytu z wewnętrznej pamięci cache zakończy się niepowodzeniem. Wydajność niektórych komputerów z procesorem DX2 może być wyższa od pozostałych,
zwykle zależy to od rozmiaru i wydajności zewnętrznej pamięci cache znajdującej się na płycie głównej komputera. Komputery DX2 pozbawione zewnętrznej pamięci cache nadal będą pozwalały na wykorzystanie zalet procesora pracującego z dwa razy większą szybkością, jednak operacje wymagające dostępu do pamięci będą wykonywane wolniej. Dochodzimy teraz do procesora DX4. Chociaż początkowo procesory te nie były dostępne w handlu detalicznym, znaleźć je było można w ofercie wielu sprzedawców, wraz z regulatorem napięcia 3,3 V. wymaganym do umieszczenia procesora w gnieździe 5 V. Regulatory napięcia są wyposażone w zworki umożliwiające ustawienie mnożnika zegara dla procesora DX4 na wartość 2*, 2,5* tub 3*. W komputerze DX 50 MHz, poprzez ustawienie mnożnika na wartość 2*. można uzyskać komputer pracujący z częstotliwością płyty głównej równą 50 MHz i procesorem )00 MHz. W otrzymanym komputerze nie będzie można oczywiście wykorzystywać zalet nowoczesnych magistral lokalnych, jednak będzie on jednym z najszybszych komputerów klasy 486. Firma !ntel ma w ofercie również procesor DX4 OverDrive z wbudowanym regulatorem napięcia i radiatorem, zaprojektowany specjalnie z myślą o handlu detalicznym. Procesor DX4 OverDrive nie różni się praktycznie od procesora DX4 3.3 V, z tym tylko wyjątkiem, że dzięki wbudowanemu regulatorowi napięcia pracuje z napięciem zasita-nia 5 V. Ponadto procesor DX4 pracuje tylko w trybie z potrojoną częstotliwością płyty głównej, nie akceptując standardowych trybów procesora DX4, takich jak 2* czy 2,5*. W momencie pisania tej książki firma tntel zaprzestała już produkcji wszystkich procesorów 486, również DX2/DX4/OverDrive, a także Pentium Overive. Procesor Pentium OverOrive zastępujący procesory 4865X2 i DX2 W )WS roku pojawił się na rynku procesor Pentium OverDrive. Planowano również wprowadzenie wersji tego procesora dla komputerów 486DX4, jednak słaba pozycja rynkowa komputerów SX2/DX2 spowodowała, że rozwiązanie to nigdy nie ujrzało światła dziennego. W przypadku procesora 486 Pentium OverDrive należy pamiętać, że chociaż procesor ten został zaprojektowany z myślą o współpracy z komputerami SX2 i t)X2. powinien również współpracować z dowolnym komputerem 486SX lub DX wyposażonym w gniazdo Socket 2 lub Socket 3. W razie wątpliwości należy skonsultować się z informacją online tlrmy Intel. Procesor Pentium OverDrive został opracowany z myśtą o komputerach z gniazdem !ntel Socket 2. Procesor ten będzie również pracował w komputerze z gniazdem Socket 3, należy jednak ustawić napięcia zasilania na 5 V. a nie na 3,3 V. Procesor Pentium OverDrive posiada 32 kB wewnętrznej pamięci cache pierwszego poziomu i architekturę superskalarną (wiele kolejek instrukcji) podobną do oryginalnego procesora Pentium. Oprócz architektury 32-bitowego procesora Pentium, powodem szybszej pracy tego procesora jest zastosowanie wewnętrznego układu zwielokrotniania częstotliwości, a także wewnętrznej pamięci cache typu Write-Back (standardowo zintegrowanej z procesorem Pentium). Jeżeli płyta główna obsługuje pamięć cache typu Write-Back, to wydajność komputera poprawi się. Niestety, większość płyt głównych, szczegółnie z gniazdem Socket 2, dopuszcza stosowanie jedynie pamięci cache typu Write-Through. Większość testów procesora Pentium OverDrive wykazała, że pod względem wydajności nie/.nacznie przewyższa on procesor DX4-IOO. pozostaje natomiast w tyle za procesorem DX4-I20, a także ustępuje „prawdziwym" procesorom Pentium 60, 66 czy 75. Niestety, procesor ten jak dotąd jest jedynym sposobem na „unowocześnienie" komputera 486. oferowanym przez firmę Intel. Obecnie, kiedy dostępne są „prawdziwe" procesory Pentium o stosunkowo niskiej cenie, trudno jest uzasadnić decyzję trwania przy starym komputerze. Nie poiecam więc kupna procesora Pentium OverDrive, gdyż jest to rozwiązanie nieekonomiczne pod względem możliwości przyszłego unowocześnienia komputera
Wakat S\\ego czasu można było w prasie czy w telewizji zobaczyć reklamę przedstawiającą płytę downą komputera 486 z neonowym znakiem wskazującym na puste gniazdo obok procesora. Reklama ta nie była zbyt dokładna, gdyż pod jej wpływem można było wyrobić sobie opinię, że wymiana procesora na nowszą wersję możliwa jest tyłko w komputerach z dodatkowym gniazdem. Gdy po raz pierwszy ujrzałem tę reklamę, zmartwiłem się nieco, ponieważ dopiero co kupiłem komputer 486DX, a reklama sugerowała, że nowsze wersje procesora będzie można wykorzystywać tylko w komputerach z wolnym gniazdkiem OverDrive. Nie było to oczywiście prawdą, jednak reklama wprowadziła tu pewną dezinformację. Później przekonałem się. że możliwość wymiany procesora na nowszą wersję nie zależy od tego. czy w komputerze znajduje się drugie gniazdo procesora i że wymianę można przeprowadzić praktycznie w każdym komputerze 486SX czy DX. Drugie gniazdo (S\erDrive zostało umieszczone na płycie głównej po to, aby czynność tę ułatwić. Nawet w komputerach wyposażonych w drugie gniazdo, zamiast umieszczać procesor w drugim gnieździe OverDrive. można wyjąć pierwszy procesor SX czy DX i włożyć na jego miejsce procesor OverDrive. \\ t\m przypadku uzyskalibyśmy komputer z tepszym procesorem, a stary procesor po wyjęciu z komputera można spróbować sprzedać znajomym !ub producentowi. Niestety, [luna Intel nie jest zainteresowana odkupieniem od użytkowników starych procesorów. / tych względów niektórzy uważają, że koncepcja drugiego gniazda OverDrive byta dla firmy !nte! sposobem na zwiększenie sprzedaży procesorów. Istnieją jednak uzasadnione powody, aby wykorzystywać procesor OverDrive zostawiając jednocześnie stary procesor w jego gnieździe. Jednym z powodów jest fakt. że wielu sprzedawców komputerów unieważnia gwarancję, jeżeli z komputera wyjęto procesor. Ponadto przy oddawaniu komputera do serwisu \\\maga się najczęściej, aby byt przekazany tylko komputer z oryginalnymi podzespołami, a wszystkie dodatkowe karty, moduły pamięci, układy rozszerzające itp. należy z niego usunąć. Jeżeli stary procesor zastąpimy nowszym, to przywrócenie komputera do początkowej konfiguracji, tak aby go można było oddać do serwisu, będzie o wiele trudniejsze. Innym powodem, dla którego należy stosować procesor w drugim gnieździe, jest ryzyko uszkod/etua gnia/da przy wymianie procesora, co spowoduje, że komputer nie będzie działał. Natomiast jeżeli uszkodzone zostanie drugie gniazdo OverDrive, to komputer będzie dalej działał z oryginalnym procesorem. Wydawać by się mogło, że możliwość uszkodzenia gniazda nie jest wystarczającym powodem do unikania wyjmowania procesora z gniazda, jednak do umieszczenia procesora w gnieździe 169-końcówkowym potrzeba zazwyczaj siły 100 funtów. Tak wielka siła może z łatwością spowodować zniszczenie procesora albo gniazda. Wielu producentów płyt głównych wyposażyło swoje płyty w gniazda typu LłF (Low In^-ttion Force), które do umieszczenia procesora w gnieździe zazwyczaj wymagają tylko siły 60 funtów. W przypadku zwyczajnych gniazd lub gniazd typu LIF zalecani wyjęcie płyty głównej z obudowy i przytrzymanie jej ręką z drugiej strony w czasie wkładania procesora do gniazda. Naciskanie na płytę z siłą 60 czy 100 funtów może spowodować jej złamanie, jeżeli płyta nie będzie odpowiednio podparta. Również do \\\ imowania układów z takich gniazd niezbędne będzie odpowiednie narzędzie. Obecnie prawie wszystkie płyty główne są wyposażane w gniazda typu ZtF (Zero !n-sertion Force). Eliminuje to prawie całkowicie ryzyko zniszczenia płyty przy wymianie procesora, ponieważ nie trzeba do tej czynności angażować siły. Większość gniazd typu ZłF jest wyposażona w dźwignię; aby włożyć procesor w
podstawkę, wystarczy podnieść dźwignię, włożyć układ do gniazda i opuścić dźwignię. Dzięki temu wymiana procesora staje się o wiele prostszym zadaniem. Ponieważ wymiana procesora staje się czynnością tak prostą, większość płyt wyposażonych w gniazdo ZIF nie ma już drugiej podstawki na procesor. Zaletą tego rozwiązania jest oszczędność miejsca na płycie głównej. Stary procesor po wyjęciu można sprzedać albo przechowywać jako część zapasową. Wymiana koprocesora 80487 na nowszą wersję Procesor 80486 zosta) zaprezentowany pod koniec roku 1989, a pierwsze komputery 486 pojawiły się w roku 1 990. Procesor ten miał wbudowany koprocesor arytmetyczny. Pierwsze modele procesora 486SX były w rzeczywistości procesorami 486DX, który dopiero co pojawił się na rynku; przed skierowaniem tych procesorów do sprzedaży tlrnia Intel wyłączała w nich koprocesor arytmetyczny. W ramach swojej strategii marketingowej tlrrna Intel sprzedawała „koprocesor arytmetyczny 487SX". Producenci płyt głównych dodawali dla tego układu osobne gniazdo. W rzeczywistości układ 487SX był procesorem 486DX z włączonym koprocesorem arytmetycznym. Po włożeniu układu w gniazdo na płycie głównej, powodował on wyłączenie układu 486SX i od tej chwili użytkownik miał do dyspozycji komputer o możłiwościach 486DX. AMD 486 (5x86) AMD stworzył rodzinę procesorów kompatybilnych z 486, które można było umiesz-c/ać w standardowych płytach głównych. Co więcej, AMD wyprodukował najszybsze dostępne procesory 486, które nazwał Am5x86(TM)-P75. Ta nazwa jest trochę myląca, ponieważ wielu ludzi czytając „5x86" może pomyśleć, iż jest to procesor piątej generacji (Pentium). W rzeczywistości, jest to jednak zwykły procesor 486. pracujący z czterokrotną częstotliwością 33-megahercowej płyty głównej. Procesory 5x86, dzięki połączonej, 16-kilobajtowej pamięci podręcznej typu write-back oraz 133-megahercowej częstotliwości pracy, oferują wysoką wydajność, porównywalną do wydajności Pentium 75. Właśnie dlatego w oznaczeniu procesora występuje „P75". Zwiększenie możliwości starego komputera 486 poprzez zamontowanie w nim jednego z tych procesorów jest idealnym rozwiązaniem, gdy nie ma możliwości zmiany płyty gl Nie we wszystkich płytach głównych można zamontować procesor 5x86. Jeśli chcesz się upewnić, czy twoja płyta główna obsługuje te procesory, najlepszym sposobem jest sprawdzenie jej dokumentacji. Poszukaj takich słów jak „Am5X86". ,.AMD-X5". „c!ock-quadruplcr" lub .,133 MHz". Innym sposobem jest sprawdzenie, czy nazwa twojej pl\t\ głównej figuruje w znajdującym się na internetowej stronie AMD spisie płyt głównych obsługujących procesory 5x86. Jest kilka rzeczy, na które trzeba zwrócić uwagę podczas instalowania procesora 5x86 na płycie głównej 486: + Napięcie zasilania procesorów 5x86 wynosi 3,45 V + 0,15 V. Napięcie to nie występuje we wszystkich płytach głównych; większość płyt głównych Socket l powinna jednak je mieć. Jeśli masz płytę główną 486 z gniazdem Socket l lub 2. nie możesz w niej bezpośrednio umieścić procesora 5x86. Procesory 5x86 są przystosowane do napięcia 3,45 V i po umieszczeniu w 5-voltowym gnieździe mogą ulec uszkodzeniu. Istnieją specjalne urządzenia konwertujące napięcie do 3,45 V, sprzedawane przez firmy takie jak Kingston. Evergreen czy też AMP. Firmy Kingston i Evergeen sprzedają procesory 5x86 wraz z podłączonymi konwerterami napięcia, co znacznie upraszcza ich instalację. Taki zestaw jest idealny, jeśli chcesz zainstalować procesor 5x86 na starszej płycie głównej 486 z gniazdem innym niż Socket 3. + Ogólnie rzecz biorąc, lepiej jest kupić nową płytę główną 486 niż jeden z tych zestawów; trudno jest jednak obecnie znateźć płytę główną obsługującą procesory 486, szczególnie jeśli w twoim komputerze zastosowano rozwiązania firmowe uniemożliwiające łatwe znalezienie zastępczej płyty
głównej. Lepiej kupić nową płytę główną również dlatego, że BłOS starszej płyty może nie rozpoznać wymagań procesora 5x86. jak również częstotliwości, z którą pracuje. W starszych płytach często zachodzi potrzeba uaktualnienia BlOS-u. + W większości płyt głównych Socket 3 napięcie ustawia się ręcznie za pomocą zworek. Jednak niektóre z nich potrafią automatycznie wykryć potrzebne napięcie i nie potrzebują ani nie posiadają tych zworek. Automatyczne wykrywanie polega na sprawdzeniu po włączeniu komputera końcówki VOLDET (końcówka S4) mikroprocesora. + Końcówka VOLDET jest zwarta w procesorze z masą (Vss). Jeśli nie możesz odnaleźć żadnych zworek ustawiających napięcie, możesz sprawdzić płytę główną w następujący sposób: wyłącz komputer, wyjmij procesor, zewrzyj znajdujące się w podstawce Z!F końcówki S4 i Vss, włącz komputer, a następnie sprawdź woltomierzem napięcie na którejś z końcówek Vcc. Woltomierz powinien wskazać 3,45 (± 0,15) V. Opis końcówek gniazd procesorów znajduje się wcześniej w tym rozdziale. + Procesory 5x86 wymagają, by płyta główna pracowała z częstotliwością 33 MHz. Zanim zainstalujesz jeden z tych procesorów, upewnij się, czy płyta gló\\na jest ustawiona do pracy z odpowiednią częstotliwością. Wewnętrzna częstotliwość pracy procesorów 5x86 wynosi 133 MHz. W związku z tym, mnożnik musi być ustawiony na czterokrotną częstotliwość płyty głównej. W większości płyt głównych takie ustawienie zworek jest opisane jako „clock(.[uadrupled" lub tryb ,,4X Clock". Po prawidłowym ustawieniu zworek na płycie głównej, końcówka CLKMUL (końcówka RI7) procesora zostanie zwarta / masą (Vss). Jeśli płyta główna nie posiada odpowiedniego ustawienia, równie dobrze powinno działać standardowe ustawienie podwojonej częstotłiwości magistrali dla procesorów DX2. + W niektórych płytach głównych można ustawić za pomocą zworek tryb pracy pamięci podręcznej, która może pracować w trybie Write-Back (WB) lub Write-Through (WT). Za ustawienie trybu pracy pamięci podręcznej odpowiada końcówka WB/WT (końcówka B13) mikroprocesora - po ustawieniu na niej logicznego stanu wysokiego (Vcc) pamięć podręczna działa w trybie WB. po zwarciu końcówki z masą (Vss) pamięć podręczna pracuje w trybie WT. Najlepszą wydajność uzyskuje się w trybie WB; jeśli jednak występują problemy podczas uruchamiania aplikacji lub nie działa prawidłowo stacja dysków (konflikty DMA), powinno się przełączyć tryb pracy pamięci podręcznej na WT. + 1'mL'csory 5x86 szybko się nagrzewają i należy je chłodzić za pomocą wentylatorka na radiatorze. Poza procesorami 5x86, AMD wypuściła na rynek również serię procesorów pracujących z częstotliwościami 80. 100 oraz 120 MHz. Procesory te to A80486DX2-80SV8B (40 MHz x 2). A80486DX4-IOOSV8B (33 MHz x 3) oraz A80486DX4-I20SV8B (40 MHz x 3). Cyrix/Ti 486 Procesory Cyrix 486DX2/DX4 były dostępne w wersjach pracujących z częstotliwo-ściami )00, 80, 75. 66 oraz 50 MHz. Procesory 486 Cyrixa, podobnie jak procesory AMD, są w petni kompatybilne z procesorami 486 Intela i bezproblemowo pracują z większością płyt głównych 486. Procesory Cx486DX2/DX4 zawierają 8-kilobajtową pamięć podręczną writeback, zintegrowaną jednostkę zmiennoprzecinkową (koprocesor), zaawansowane zarządzanie energią oraz SMM; procesory te były również dostępne w wersjach pracujących z napięciem 3,3 V. Wszystkie zaprojektowane przez Cyrixa procesory 486 zostały wyprodukowane przez Tl i były również sprzedawane z tą marką. Później znaczenie umowy między Tl a Cyrixem spadło i większość procesorów Cyrixa zaczął produkować IBM; mogło to się jednak zmienić od czasu, gdy
Cyrix został zakupiony przez firmę National Semiconductors.
P5 (586) Procesory piątej generacji Procesor Pentium W październiku 1992 roku firma intel oświadczyła, że rozpoczyna produkcję mikroprocesora piątej generacji (o roboczej nazwie P5), który miał być kompatybilny z wcześniejszymi modelami procesorów. Procesor ten został nazwany Pentium, a nie 586, jak można by się spodziewać, ponieważ firma !ntel nie mogła zastrzec patentowe liczby. Firma chciała zapobiec w ten sposób nadawaniu klonom procesora, opracowanym przez innych producentów, nazwy procesora oryginalnego. Procesor Pentium pojawił się na rvnku 22 marca 1993 roku. Na pierwsze komputery oparte na tym procesorze trzeba było poczekać jeszcze kilka miesięcy. Pentium jest w pełni kompatybilny z poprzednimi procesorami tntela, różni się jednak od nich pod wieloma względami. Co najmniej jedna z wprowadzonych innowacji zasługuje na miano rewolucyjnej: procesor ma dwa potoki rozkazowe, które umożliwiają jednoczesne wykonywanie dwóch rozkazów. Procesory 486 i wcześniejsze mogły wykonywać w danej chwili tyiko jedną instrukcję. Architektura procesora, umożliwiająca jednoczesne wykonywanie dwóch instrukcji, została przez firmę Intel nazwana ^c/7WJ/og/(; ,s';//j<.'/'.'.At;A//'/;t;. Dzięki jej zastosowaniu osiągnięto dodatkową wydajność w porównaniu z procesorem 486. Standardowo procesor 486 wykonuje pojedynczą instrukcję w średnim czasie dwóch cykli /cnara. Czas ten, dzięki zastosowaniu mechanizmu zwielokrotniania częstotliwości sygnału zegarowego, został skrócony do jednego cyklu w procesorach DX2 i DX4. Wykonany w technologii superskałarnej procesor Pentium jest w stanie wykonywać większą niż 486 łiczbę instrukcji w czasie dwóch cykli zegara. Architekturę superskalarną spotyka się zazwyczaj w procesorach typu RtSC (Reduced tnstruction Set Computer). Procesor Pentium jest uważany za pierwszego przedstawiciela rodziny procesorówDwa potoki procesora Pentium to tzw. u-potok i v-potok. W ramach M-/3ofoAi/, który jest głównym potokiem procesora, mogą być wykonywane wszystkie operacje całkowito-liczbowe i /micnnoprzecinkowe. V-potok odpowiada tytko za wykonywanie prostych operacji catkowitoliczbowych i niektórych zmiennoprzecinkowych. Proces jednoczesnego wykonywania dwóch instrukcji z dwóch potoków nosi w języku angielskim nazwę /M///;?^. Nie wszystkie instrukcje wykonywane sekwencyjnie mogą być łączone w pary. Kiedy nie jest możliwe wykonywanie dwóch instrukcji jednocześnie, używany jest tyłko jeden potok. Aby zoptymalizować programy pod kątem nowych możliwości procesora Pentium i umożliwić jednoczesne wykonywanie dwóch instrukcji, można programy przekompi-lować. Procesor Pentium jest w !00 procentach kompatybilny z procesorami 386 i 486. Chociaż wszystkie programy wykonywane przez procesor Pentium będą dziatały szybciej niż w przypadku 486, wielu producentów oprogramowania decyduje się przekompilo-wać swoje aplikacje, aby w jeszcze większym stopniu wykorzystać moc Pentium. Firma Intel opracowała nowe kompilatory, które w pełni wykorzystują załety nowego procesora, i ud/iela na nie licencji producentom kompilatorów. Dzięki temu firmy opracowujące aplikacje mogą w pełni wykorzystywać możliwości architektury superskalarnej (przetwarzanie równolegle) procesora Pentium. Na rynku są już obecne programy w ten sposób zoptymalizowane. Zoptymalizowane oprogramowanie powinno zwiększyć wydajność komputera, dzięki jednoczesnemu wykonywaniu instrukcji w obydwu potokach. Aby zminimalizować przestoje w pracy potoków, spowodowane opóźnieniami w pobieraniu kodów rozkazów, które odwołują się do nieliniowych adresów w pamięci, procesor Pentium posiada tzw. bufor adresu docelowego (ang. Branch
Target Buffer, BTB) oraz wykorzystuje technikę zwaną/i/r^n/c/m^/f/t.'/;; .sAoAfhf. BTB próbuje przewidzieć, czy \\ kolejnym cyklu zostanie wykonany rozkaz skoku, i w zależności od wyniku przewidywania pobiera z pamięci kod kolejnego rozkazu. Dzięki zastosowaniu mechanizmu przewidywania skoków, obydwa potoki procesora Pentium mogą pracować z pełną szybkością. Rysunek 6.20 przedstawia wewnętrzną architekturę procesora Pentium. Procesor Pentium ma 32-bitową magistralę adresową, dzięki czemu jego przestrzeń adresowa wynosi 4 GB, tyle samo. co w przypadku procesorów 386DX i 486. Jednak dane są przesyłane w postaci słów 64-bitowych, co oznacza, że transfer danych do procesora lub z procesora jest dwa razy szybszy niż w procesorze 486. pracującym z tą samą częstotliwością. 64-bitowa magistrala danych wymaga zastosowana mechanizmu 64-bitowego dostępu do pamięci, a to oznacza konieczność stosowania 64-bitowych banków pamięci. Na większości płyt głównych podzespoły pamięci RAM są modułami typu SIMM (Single In-Line Memory Module), dostępnymi w wersji 9-bitowej i 36-bitowej. Większość komputerów Pentium wykorzystuje 36-bitowe moduły SIMM (32 bity danych i 4 bity parzystości), przy czym na jeden bank pamięci przypadają dwa moduły SIMM. Większość płyt głównych Pentium ma co najmniej cztery 36bitowe gniazda SIMM, co daje łącznie dwa banki pamięci. Pomimo że Pentium posiada 64-bitową magistralę danych, zapewniającą jednoczesny transfer 64 bitów danych, wewnętrzne rejestry procesora są 32bitowe. Kiedy procesor wykonuje instrukcje, pobrane z pamięci 64-bitowe słowa sądziełone na 32-bitowe kody rozkazów, podobnie dzielone są dane. Pobrane dane są przetwarzane w podobny sposób jak w 486. Niektórzy uważają, że firma Intel wprowadza użytkowników w błąd nazywając procesor Pentium procesorem 64bitowym, jednak transfer danych między procesorem a pamięcią jest rzeczywiście 64-bitowy. Wewnętrzne rejestry procesora pozostają 32-bitowe, co zapewnia zachowanie pełnej kompatybilności z procesorami 486. Procesor Pentium ma wbudowaną pamięć cache. podzieloną na dwa bloki o rozmiarze 8 kB każdy, podczas gdy procesor 486 ma tylko jeden blok wewnętrznej pamięci cache o rozmiarze 8 kB lub 16 kB. Układ kontrolera pamięci cache i sama pamięć są zaszyte wewnątrz procesora. Pamięć cache przechowuje kopie danych i kodów rozkazów z różnych
Rys.20.Rysunek 6.20.
obszarów pamięci RAM. W procesorze Pentium pamięć ta może również buforować informację zapisywaną do pamięci RAM i przepisywać ją do pamięci RAM w chwilach, kiedy procesor i pozostałe podzespoły komputera są mniej obciążone. (Procesor 486 zapisuje informację w pamięci RAM od razu). Pamięć cache, podzielona w dwa osobne bloki przechowujące dane i kody rozkazów, ma organizację dwuścieżkowej pamięci asocjacyjnej, w której pojedynczy blok pamięci jest podzielony na 32-bajtowe wiersze. Każdy z bloków pamięci cache jest wyposażony w tzw. bufor translacji adresu (ang. Transtation Lookaside Buffer. TBL), którego zadaniem jest tłumaczenie adresu liniowego na adres fizyczny. Pamięć cache danych może zostać skonfigurowana przez użytkownika jako pamięć typu Write-Back albo Write-Through. Kiedy korzysta się z funkcji Write-Back, to dane mogą być zarówno zapisywane do pamięci cache, jak i odczytywane z niej, przez co wydajność procesora wzrasta \\ porównaniu z trybem Write-Through, w którym dane mogą być tylko odczytywane. Wykorzystanie trybu Write-Back zmniejsza natężenie danych pomiędzy procesorem a pamięcią RAM, co ma duże znaczenie, ponieważ operacje dostępu do pamięci są w szybkich komputerach przysłowiowym wąskim gardłem. Pamięć cache dla kodów rozkazów jest z natury zabezpieczona przed zapisem, ponieważ przechowywane są w niej kody instrukcji, które w przeciwieństwie do danych nie mogą być modyfikowane. Dzięki wykorzystaniu dodatkowych cykli trybu burst, dane są zapisywane do pamięci cache i odczytywane z niej bardzo szybko. Wysoka wydajność komputerów z procesorem Pentium bierze się przede wszystkim z zastosowania pamięci cache drugiego poziomu, składającej się z bardzo szybkich (o czasie dostępu co najwyżej 15 ns) układów Static RAM (SRAM). Kiedy procesor pobiera dane, które nie znajdują się jeszcze w wewnętrznej pamięci cache pierwszego poziomu, musi wstawiać cykle oczekiwania, co czyni pracę procesora wolniejszą. Jeżeli natomiast pobierane dane znajdują się w zewnętrznej pamięci cache, to procesor może reahzować swoje zadania bez przerywania pracy. Dzięki wykonaniu procesora Pentium w technologii BiCMOS (Bipotar Complementary Metal Oxide Semicondustor) oraz dzięki wykorzystaniu w nim architektury superskalarnej, możliwe było osiągnięcie wysokiej wydajności procesora. Zastosowanie technologii BiCMOS zwiększa złożoność wewnętrznej struktury układu o okoto t O procent, natomiast wydajność procesora rośnie o 3035 procent, przy takim samym rozmiarze obudowy i napięciu /asilania. Wszystkie procesory Pentium obsługują specyfikację SL Enhanced. Wykorzystując funkcje SMM. Pentium w pełni realizuje zarządzanie energią, co pozwala na zmniejszenie zużycia prądu. Procesory Pentium drugiej generacji (73 MHz i szybsze) wykorzystują bardziej zaawansowane funkcje SMM, umożliwiające m.in. kontrolę częstotliwości zegara procesora. Możliwe jest nawet zatrzymanie zegara, procesor przechodzi wówczas w stan uśpienia, w którym pobiera bardzo mało energii. Procesory Pentium drugiej generacji zasilane są napięciem 3,3 V (zamiast 5 V). co jeszcze bardziej obniża pobór energii i ilość wydzielanego ciepła. Wiele spośród spotykanych obecnie płyt głównych dostarcza napięcia 3.465 V i 3,3 V.. Niektóre procesory mogą wymagać jeszcze węższych zakresów napięć zasilania, udostępnianych zazwyczaj przez płytę główną. Oto krótkie podsumowanie tego tematu:
Typ napięcia S II) (Standard)
Wartość nomiToterancja Wartość minimaina Wartość maksymatna 3.3 V
±0.165
3.t35V
3.463 V
VR(Volt;tgc Regulator)3.38 V
±0.083
3.300 V
3.465 V
VRH(VRExtanded!) 3.5V
±0.100
3.400 V
3.600 V
Aby jeszcze bardziej zmniejszyć zużycie energii, firma tntel opracowała specjalne procesory Pentium wykorzystujące tzw. technologię obniżonego napięcia (ang. Voltage Reduction Technology). Technologię tę zastosowano w modelach procesorów 75/]00/l20/l33/l50 MHz, przeznaczonych do montażu w komputerach przenośnych. Procesory te zamiast zamknięcia w konwencjonalnej obudowie, są wykonane w formacie TUP . Procesor taki nie jest zamknięty w ceramicznej czy plastikowej obudowie, lecz zamiast tego jest pokryty cienką warstwą plastiku. Całkowita grubość procesora jest mniejsza od l mm, co stanowi połowę grubości dziesięciocen-tówki, zaś sam procesor waży poniżej l grama. Wykonane w ten sposób procesory są sprzedawane producentom komputerów w postaci rolek, przypominających paski fołii. Procesor TCP jest za pomocą specjalnego urządzenia wlutowywany bezpośrednio w ptytę główną, co pozwala na zmniejszenie rozmiaru obudowy i masy komputera, obniża ilość wydzielanego ciepła i zmniejsza pobór energii. Specjalne pola lutownicze na płytce drukowanej, znajdujące się bezpośrednio pod procesorem, odprowadzają ciepło i zapewniają chłodzenie w warunkach typowych dla komputera taptop czy notebook. Nie są przy tym wymagane dodatkowe wentylatory. Procesor Pentium, podobnie jak 486, ma wbudowany koprocesor arytmetyczny, zwany ró\\ mc/ jednostką zmiennoprzecinkową(Floating Point Unit, FPU). Struktura jednostki FPLJ w procesorze Pentium została zmieniona w porównaniu z poprzednią wersją, dzięki czemu jej wydajność jest teraz znacznie większa. Wbudowany koprocesor pozostaje jednocześnie w pełni kompatybilny z układami 487 i 387. Koprocesor arytmetyczny w procesorze Pentium jest w przybliżeniu od dwóch do dziesięciu razy szybszy od swojego odpowiednika w procesorze 486. Ponadto z dwoma potokami rozkazów procesora Pentium związane są dwie jednostki arytmetyczno-logiczne, odpowiadające za wykonywanie obłiczeń catkowitoliczbowych. (Koprocesor arytmetyczny wykonuje tytko złożone obliczenia matematyczne.) inne procesory, np. 486, mają tylko jeden potok instrukcji i jedną jednostkę arytmetyczno-logiczną. Ciekawostką jest błąd wykryty \\ jednostce FPU procesora Pentium, który przyciągnął uwagę opinii publicznej. Więcej na ten temat można znaleźć w podrozdziale ,,Błędy w procesorze Pentium" w datszej części tego rozdziału. Procesory Pentium pierwszej generacji Procesor Pentium byt oferowany w dwóch odmianach, z których każda miała szereg wersji. Procesory pierwszej generacji, które obecnie nie są już dostępne, występowały w wersjach 60 i 66 MHz. Układy te były zamknięte w 273końcówkowej obudowie PGA i zasitane napięciem 5 V. Procesor Pentium pierwszej generacji pracował z częstotliwością płyty głównej, tzn. współczynnik zwiełokrotnienia częstotliwości miał wartość l ^. Procesory Pentium pierwszej generacji były wykonane w technologii BiCMOS 0.8 mikrona. Niestety, teclinotogia ta, w połączeniu z liczbą tranzystorów wewnątrz układu, wynoszącą 3.1 miliona, sprawiła, że sarn układ był stosunkowo dużych rozmiarów, a proces produkcyjny dość skompłikowany. Spowodowało to, że popyt na procesory Pentium pierwszej generacji był ograniczony, dlatego procesor ten dość krótko znajdował się w ofercie firmy tntel. Firma nie była w stanie opracować szybszych wersji tego procesora. Technologia 0,8 mikrona była krytykowana przez innych producentów półprzewodników, m.in. firmy Motorola i IBM. które w swoich najbardziej zaawansowanych produktach stosowały wówczas technologię 0.6 mikrona. Duży rozmiar obudowy i 5-voltowe napięcie zasilania spowodowały, że wersja 66 MHz procesora Pentium pobierała niewiarygodnie dużo prądu - 3.2 A - a wydziełana moc wynosiła 16 W. Spowodowało to duże problemy z odprowadzaniem wydzielanego ciepła;
probłemy pojawiły się także w komputerach, które nie były wykonane w tak konserwatywnej technologii. Często procesor wymagał osobnego wentylatora zapewniającego mu odpowiednie chłodzenie. Większość słów krytyki, które spadły na firmę łntel w związku z procesorem Pentium pierwszej generacji, była uzasadniona. Niektórzy zdawati sobie sprawę, że jest to nieuniknione w pr/ypndku procesora pierwszej generacji; spodziewano się rychłego pojawienia nows/.ych wersji procesora Pentium, wykonanych w bardziej zawansowanej technologii. Zakup komputera Pentium był często odradzany i zalecano czekanie do momentu pojawienia się procesorów Pentium drugiej generacji. Kardynalną regułą przy zakupie komputerów jest unikanie procesorów pierwszej generacji. Z drugiej jednak strony można oczekiwać w nieskończoność, ponieważ na horyzoncie zawsze będzie lepszy model, jednak czasami opłaca się trochę poczekać. Je/eli jesteś użytkownikiem komputera z procesorem Pentium pierwszej generacji, to nie masz powodów do rozpaczy. Podobnie jak w przypadku komputerów 486, firma Intel oferuje procesory OverDrive. których szybkość pracy jest dwa razy większa niż procesorów Pentium 60/66 MHz. Układy te umieszcza się w gnieździe w miejscu oryginalnego procesora. Późniejsze wersje procesorów Pentium nie pasują do gniazda Socket 4 /najdującego się w komputerach Pentium 60/66, dlatego procesory OverDrive są jedynym sposobem „unowocześnienia" komputera z procesorem Pentium 60 pierwszej generacji, nie pociągającym konieczności wymiany płyty głównej. Procesory Pentium drugiej generacji 7 marca 1094 roku firma Intel zaprezentowała procesor Pentium drugiej generacji. Procesor ten był dostępny w wersjach 90 i 100 MHz, a wkrótce także w wersji 75 MHz. Następnie pojawiły się wersje 120, 133, 150. 160 i 200 MHz. Procesor Pentium drugiej generacji jest wykonany z wykorzystaniem technologii BiCMOS 0,6 mikrona, co umożłiwiło zmniejszenie obudowy i obniżenie iłości pobieranej energii. Nowsze układy drugiej generacji, w wersji od 120 MHz, są wykonane z zastosowaniem jeszcze bardziej zaawansowanej technologii BiCMOS 0.35 mikrona. Wewnętrzna struktura procesora nie różni się od wersji 0.6 mikrona, lecz jest po prostu pomniejszeniem maski fotograficznej układu P54C. Ponadto nowe procesory są zasilane napięciem 3,3 V. Wersja 100 MHz pobiera maksymalnie 3,25 A prądu ze źródła 3,3 V, a więc wydziela się jedynie 10.725 W mocy. Układ )50 MHz pobiera 3.5 A prądu ze źródła 3,3 V (! 1.6 W wydzielanej mocy), wersja )66 MHz - 4,4 A ()4.5 W mocy), a procesor 200 MHz - 4,7 A prądu (15.5 W mocy). Procesor Pentium drugiej generacji jest zamknięty w 296-końcówkowej obudowie typu SPGA (Staggered Pin Grid Array). która fizycznie różni się od obudowy procesora pierwszej generacji. Jedynym sposobem na unowocześnienie procesora jest więc wymiana płyty głównej. Pentium drugiej generacji składa się z 3,3 miliona tranzystorów, liczba ta jest większa niż w przypadku poprzednich procesorów. Różnica w łiczbie tranzystorów wynika z zastosowania dodatkowego układu kontroli częstotliwości zegara (SL cnhaccment) oraz kontrolera przerwań APIC (Advanced Programmable Interrupt Controler) i mechanizmu pracy dwuprocesorowej.Kontroler APIC i interfejs pracy dwuprocesorowej umożliwiają realizację konfiguracji, w której dwa procesory Pentium drugiej generacji, znajdujące się na tej samej płycie głównej, mogą jednocześnie przetwarzać dane. Wiele z nowszych modeli płyt głównych jest wyposażonych w dwa gniazda Socket 7, co umożliwia reałizację konfiguracji dwuprocesorowcj. Oprogramowanie wspomagające tę architekturę, okreśianą jako Symmetric Multi Processing (SMP), jest częścią systemów operacyjnych takich jak WindowsNTczyOS/2.
Rysunek 6.21. Układ procesora Pentium
Procesor Pentium drugiej generacji posiada układ mnożący częstotliwość, dzięki czemu procesor może pracować szybciej niż magistraia. Np. Pentium 150 MHz może pracować z częstotliwością 2.5 razy większą niż częstotliwość płyty głównej, wynosząca zazwyczaj 60 MHz. Pentium 200 MHz w komputerze z magistralą 66 MHz może pracować trzy razy szybciej niż magistrala. Do niedawna płyta główna pracująca z częstotliwością wyższą niż 66 MHz jest rozwiązaniem niepraktycznym, ponieważ szybkość operacji dostępu do pamięci i magistrali lokalnej jest ograniczona do 66 MHz. Praktycznie wszystkie płyty Pentium mogą pracować z jedną z trzech częstotliwości: 50. 60 lub 66 MHz. Procesory Pentium są dostępne w wersjach z różnymi współczynnikami zwielokrotnienia częstotliwości magistrali. Tabela 6.18 przedstawia dostępne obecnie płyty główne Pentium i wersje procesorów Pentium. Stosunek częstotliwości pracy procesora do częstotliwości płyty głównej (ang. Core-to-Bus frequency ratio) jest okreśtany na podstawie stanu dwóch końcówek procesora, oznaczonych BF] i BF2. Tabela 6.19 przestawia możliwe kombinacje poziomów logicznych na tych końcówkach i odpowiadający im współczynnik mnożenia częstotliwości. Nie wszystkie procesory testują stan swoich końcówek BF (Bus Frequency). Niektóre procesory Pentium mogą pracować jedynie z pewną kombinacją stanów logicznych tych końcówek, bądź też mogą być ustawione na stałe do pracy z
konkretnym ustawieniem. Wiele z nowszych modeli płyt głównych wyposażonych jest w zworki i przełączniki umożliwiające zmianę stanu końcówek BF, a przez to zmianę mnożnika częstotliwości. Teoretycznie możliwe jest takie ustawienie zworek. aby np. procesor Pentium 75 MHz pracował z częstotliwością 133 MHz. ..Podkręcanie" procesora zostało szerzej omówione w podrozdziale „Częstotliwość pracy procesora". Aktuatnie w ofercie handtowej można znateźć procesor OverDrive zastępujący jeden z procesorów Pentium drugiej generacji, pracujących z częstottiwością 75. 90 i 1 00 MHz. Procesor taki pasuje do gniazda typu Socket 5 iub Socket 7 i może pracować ),66 rażą szybciej od zastępowanego przezeń procesora. Oznacza to, że procesor OverDrive zainstalowany w komputerze Pentium 75 będzie pracował z częstottiwością 1 25 MHz, natomiast w komputerze Pentium 1 00 - z częstotliwością i 66 MHz. Za zakupem procesora Over. Drive najbardziej chyba przemawia możtiwość korzystania z technologii MMX. zaim-plementowanej w tych procesorach. Technologia ta umożliwia znaczny wzrost wydajności wykonywania aplikacji multimedialnych, cieszących się obecnie tak dużą popularnością. Chociaż obecnie procesory OverDrive nie są dostępne w wersjach zastępujących szybsze niż wymienione procesory Pentium, firma intel twierdzi, że i one będą miały swoje odpowiedniki OverDrive (oprócz układu 200 MHz). Posiadacze płyt Socket 7 nie muszą kupować procesorów Pentium OverDrive z regulatorami napięcia. Wystarczy, że wyjmą stary procesor i zastąpią go nowszą wersją. Muszą natomiast ustawić odpowiednią szybkość oraz napięcie za pomocą przełączników na płycie głównej. Procesory Pentium-MMX Procesory Pentium trzeciej generacji (o roboczej nazwie P55C) pojawiły się w styczniu 1997. Procesory te odpowiadają procesorom Pentium drugiej generacji, uzupełnionym', bo taką nazwę nosi oficjalnie nowa technologia firmy Intel. Procesory Pentium-MMX są dostępne w wersjach 66/166 MHz, 66/200 MHz i 66/233 MHz. Mają one wiele cech wspólnych z procesorami Pentium drugiej generacji, w tym architekturę superskalarną, możliwość konfiguracji wieloprocesorowej, wbudowany kontroler AptC funkcje zarządzania energią. Nowe cechy tych procesorów to m.in. potokowa jednost ka MMX. 16 kB pamięci cache typu Write-Back (wcześniejsze procesory Pentium miały S kB pamięci cache) oraz zwiększona do 4,5 miliona liczba tranzystorów. Proce sory Pentium-MMX są produkowane z wykorzystaniem ulepszonej,technologii,CMOS 0,35 mikrona, która umożliwia obniżenie napięcia zasilania do2,8V.Nowsze wersje dla komputerów przenośnych - Pentium MMX Mobile w wersjach 233 MHz oraz 266MHz są skonstruowane w oparciu o proces „0,25 mikrona" i pracują przy napięciu 1.8 V.Dzięki unowocześnieniom, procesor ten zużywa mniej energii niż Pentium-133bez technologii MMX.Aby procesor Pentium-MMX mógł być zainstalowany w komputerze, płyta główna musi dostarczać napięcie 2,8 V, potrzebne procesorowi do pracy. Opracowanie przez firmę Intel gniazda Socket 7 i modułu VRM umożliwiło producentom płyt głównych wytwarzanie uniwersalnych płyt, dostarczających procesorowi potrzebnego napięcia zasilania. VRM jest modułem wkładanym do gniazda znajdującego się w pobliżu procesora i dostarczającym procesorowi odpowiedniego napięcia. Dzięki możliwości wymiany modułu VRM, płytę główną można łatwo skonfigurować, tak aby dostarczała napięć wymaganych przez kolejne wersje procesorów Pentium, które będą pojawiały się na rynku.Możliwość regulacji napięcia przez moduł VRM jest oczywiście przydatna, jednak główną zaletą nowego procesora jest technologia MMX. Technologia ta została opracowana przez firmę Intel w odpowiedzi na rosnącą popularność i coraz większe wymagania aplikacji multimedialnych i komunikacyjnych. Wiele z tych programów często wykonuje rozkazy w pętlach, co zajmuje procesorowi wiele czasu. Procesor MMX wykorzystuje koncepcję SIMD (Single tnstruction Muttiple Data), która polega na wykonywaniu pojedynczego rozkazu na wielu danych jednocześnie. Dodatkowo lista rozkazów procesora została wzbogacona a 57 nowych instrukcji, opracowanych specjalnie z
myślą o operacjach audio, video i operacjach graficznych. Aby zapewnić sobie możtiwość wykorzystywania w przyszłości procesora Pentium-MMX. natęży zadbać, aby płyta główna była wyposażona w 321końcówkowe gniazdo tnte! Socket 7 i gniazdo modułu VRM (Vołtage Regutator Modute). W przypadku płyty z dwoma gniazdami Socket 7, będzie można w przyszłości dodać drugi procesor Pentium i skorzystać z za!et, jakie daje architektura SMP (Symmetric Mu!ti-Processing), obsługiwana przez nowoczesne systemy operacyjne.Powinniśmy się również upewnić, że kupowana przez nas płyta główna może być skonfigurowana do pracy z częstottiwością 60 i 66 MHz. Dzięki temu możliwe będzie korzystanie w przyszłości z procesorów OverDirve, pracujących z wyższymi częstotłiwościami płyty głównej. Przestrzeganie tych prostych wskazówek zapewni nam w przyszłości możtiwość unowocześnienia komputera, bez konieczności wymiany płyty głównej. Błędy procesora Pentium Chyba najsłynniejszym błędem w historii komputerów był tegendarny błąd wykryty w /g(/Mo.s'fce :/H/eHMO/3r.
jest bezpłatna, łącznie z kosztami wysyłki. Wadliwy procesor zastępujemy nowym, a stary wkładamy z powrotem do pudełka. Następnie dzwonimy do całodobowego serwisu, który odbierze od nas procesor i wyśle go producentowi. Gdy będziemy po raz pierwszy telefonować, firma Intel pobierze od nas numer karty kredytowej, [ntel chce sobie zapewnić, że rzeczywiście zwrócimy stary układ. Jeżeli stary procesor trafi do firmy w ciągu określonego czasu, to użytkownik nie ponosi żadnych opłat. Według danych podawanych przez firmę Intel, wadliwe procesory są niszczone i nie są nikomu dalej odsprzedawane. Wykrywanie błędu procesora Przeprowadzenie testu wykrywającego błąd jest stosunkowo proste. Wszystko, co w tym celu trzeba zrobić, to wykonać jedną z podanych dalej operacji dzielenia i sprawdzić, czy uzyskany wynik jest taki sam jak podawany tutaj. Operacja dzielenia może być wykonana w arkuszu kalkulacyjnym (np. Lotus 1-23, Microsoft Excel albo dowolny inny) bądź też za pomocą kalkulatora systemu Microsoft Windows lub dowolnego innego kalkulatora wykorzystującego koprocesor arytmetyczny. Należy się upewnić, że w czasie testu koprocesor arytmetyczny jest włączony. Wymagałoby to wykonania specjalnych poleceń lub ustawień zależnych od aplikacji, co zapewni jednocześnie, że test zostanie przeprowadzony poprawnie, bez względu na to, czy układ procesora jest wadliwy, czy nie. Najpoważniejszym objawem błędu procesora Pentium jest zły wynik dzielenia, zazwyczaj na trzeciej znaczącej pozycji wyniku. Oto jeden z poważniejszych przykładów tego błędu: 962 306 957 033 / 11 010 046 = 87 402,628202734)
(wynik
poprawny) 962 306 957 033 / II 010 046 = 87399,580583)329 (wynik niepoprawny) Należy mieć świadomość, że program obliczający wartość wyrażenia może nie pokazywać wyniku z tak dużą dokładnością. Większość arkuszy kalkulacyjnych ogranicza wyświetlany wynik do 13 lub 15 cyfr znaczących. Jak widać z przykładu, błąd pojawia się na trzeciej znaczącej pozycji wyniku. Podczas testu obejmującego 5000 par liczb całkowitych mających od 5 do 15 cyfr, dobranych specjalnie tak, aby spowodowały błąd, błędy najczęściej pojawiały się począwszy od szóstej pozycji znaczącej, chociaż pojawiały się też na każdej innej pozycji, począwszy od trzeciej. Oto kolejny przykład błędnie wykonanego dziełenia: 4 195835/3 145 727= ł,33382044913624100 (wynik poprawny) 4 195 835 / 3 )45 727 = ł,33373906890203759 (wynik uzyskany na wadiiwym procesorze) W kolejnym przykładzie btąd pojawia się na piątej pozycji znaczącej. Aby się o tym przekonać, natęży wykonać następującą sekwencję działań: x = 4 ł95835 y-3 M5727 z = x -(x/y)*y 4 )95 835 - (4 )95 835 / 3 ł45 727)* 3 )45 727 = O (wynik poprawny)4 )95835 -(4 195 835/3 145 727)* 3 145 727 = 256 (wad)iwy procePentium) Przy dokładnych obłiczeniach powinniśmy uzyskać wynik równy zero. Wynik zerowy uzyskamy na większości komputerów, także na komputerach z procesorami tnteł 286, 386 i 486. Jednak procesor Pentium da wynik równy 256!
Oto inny przykład do wypróbowania: 5 50500) / 2949)) = )8,66665197 (wynik poprawny) 5 505 00) / 294 9) l = )8,666600093 (wadłiwy procesor Pentium) W ostatnim wyniku błąd pojawił się na szóstej pozycji znaczącej. łstnieje szereg sposobów na obejście błędu, jednak za cenę obniżenia wydajności procesora. Firma tnteł zgodziła się dożywotnio bezpłatnie wymieniać wszystkie wadłiwe procesory Pentium, dlatego jeżeli jesteś użytkownikiem wadliwego procesora, to najlepszym rozwiązaniem jest jego wymiana. Błędy w systemie zarządzania energią Począwszy od Pentium drugiej generacji, firma )nteł wyposażyła procesory w funkcje umożliwiające instalację procesora w komputerach obsługujących funkcje oszczędzania energii. Komputery takie noszą zazwyczaj nazwę Energy Star, ponieważ spełniają one wymogi specyfikacji EPA Energy Star. Nieoficjalnie komputery takie są przez wielu użytkowników określane jako „Green PCs" („ziełone Pecety"). Niestety, jak się okazało, funkcje oszczędzania energii nie są wolne od błędów, które powodują wyłączenie albo zawodne działanie tych funkcji. Błędy te dotyczą niektórych funkcji zarządzania energią, do których dostęp ma SMM. Problemy te występująjedynie w procesorach Pentium drugiej generacji 75/90/100 MHz, ponieważ procesory pierwszej generacji nie obsługują SMM i zarządzania energią, a wszystkie procesory Pentium )20 MHz i szybsze są wolne od tych btędów. Większość problemów związana jest z końcówką procesora STPCLK# i rozkazem HALT. Jeżeli końcówka ta zostanie uaktywniona przez chipset, to komputer zawiesi się. W większości komputerów jedynym sposobem obejścia tego problemu jest po prostu wyłączenie trybów oszczędzania energii, takich jak tryb zawieszenia (ang. suspend) czy uśpienia (ang. sleep). Niestety, oznacza to, że nasz ..zielony Pecet" przestanie być „zielony". Najlepszym sposobem pozbycia się tego problemu jest wymiana procesora na nowszą wersję, pozbawioną błędu. Błąd ten dotyczy wersji B) procesora Pentium 75/90/100 MHz i został usunięty w wersjach począwszy od B3. Nowsze modeie i wersje procesora Pentium W świecie komputerów tajemnicą poliszynela jest fakt, że żaden procesor nie jest całkowicie wolny od wad. Od czasu do czasu producenci mikroprocesorów zbierają informację o wykrytych problemach i wypuszczają nową itw.s/ (ang. stepping) procesora, wykonaną według nowej maski fotograficznej, uwzględniającej naniesione poprawki. Każda kolejna wersja procesora jest lepsza od poprzedniej. Chociaż żaden mikroprocesor nie jest w pełni doskonały, to jednak każda kolejna wersja zbliża go do osiągnięcia doskonałości. W ciągu „życia" przeciętnego mikroprocesora, producent może wprowadzić ponad pół tuzinajego kolejnych wersji. W powyższych tabeiach dane w kolumnie ..Typ" informują, czy dany procesor Pentium mo/c pracować \\ konfiguracji dwuprocesorowej. Wersje oznaczone jako ,,Typ O" mogą pracować jedynie jako pierwszy procesor, a wersje ..Typ 2" mogą być wykorzystywane tylko jaku drugi procesor w parze. Jeżeli dany procesor jest oznaczony 0/2, to może pracować jako picrws/y atbo drugi procesor. W kolumnie ,, Rodzina" w przypadku procesorów Pentium znajduje się wartość 5
(skrót od 586), a wartość w kolumnie Model oznacza numer kolejnej generacji procesora. Model l o/nac/a procesor 60/66 MHz pierwszej generacji, Model 2 i wyższy oznacza procesor drugiej generacji, o częstotliwości większej lub równej 75 MHz. Kolumna ., Wersja" wskazuje na numer korekty danego modelu. Oznaczenie rodziny, modelu i wersji procesora może być odczytane przez odpowiednie oprogramowanie, np. program CPLJID firmy Intel. Oznaczenia te są również powiązane z wewnętrznymi oznaczeniami producenta, tj. firmy Intel. Są one zazwyczaj wyrażone w kodzie alfanumerycznym. Np. isja 5 modelu 2 procesora Pentium jest określana wewnątrz firmy Intel jako wersja C2. Kody wersji producenta zaczynające się na literę .,111" (Mobile) oznaczają procesor t'pracu\\any dla komputerów typu laptop albo notebook. Procesory te spotyka się c/.eslo w cienkiej obudowie typu TCP (Tape Carrier Package), przypominającej taśmę foliową. Układy w takich obudowach przylutowuje się bezpośrednio do płyty głównej. Większość procesorów Pentium jest zamknięta w standardowej obudowie typu CPGA (Cramic Pin Grid Array), jednak ,, ruchliwe" procesory wykorzystują również obudowę typu TCP. Obecnie spotyka się także obudowę typu PPGA (Plastic Pin Gid Array), stosowaną w celu obniżenia kosztów. Kolumna ..Numer specyfikacji" zawiera kody, którymi oznacza się procesor na wierzchu albo na spodzie obudowy. Kod ten jest często jedynym zewnętrznym sposobem na określenie typu procesora w komputerze. W większości komputerów oznaczenie to przykryte jest wentylatorem, który musi być zdjęty, jeżeli chcemy je odczytać, jednak większość procesorów ma również odpowiednie oznaczenie na spodzie. Jeżeli nie można w prosty sposób zdjąć wentylatora z procesora, wystarczy obrócić układ na drugą c. ponieważ numer specyfikacji może również tam być umieszczony. Warto /wrócić uwagę na istnienie kilku nieznacznie się od siebie różniących poziomów napięć, wymaganych przez różne modele procesorów Pentium. Są one zebrane w tabeli 6.24. Na wielu nowszych pytach głównych Pentium znajdują się zworki pozwalające na ustawienie różnych zakresów napięcia. Zaistniały problem z procesorem może być właśnie spowodowany niezgodnością poziomu wymaganego przez procesor napięcia zasilania / poziome!)) napięcia dostarczanego przez płytę główną. Wiele procesorów Pentium w komputerach przenośnych wykorzystuje technologie /mnicjs/cma napięcia (ang. Yoltage Reduction Technolgy, VRT), co oznacza, że procesory te pobierają prąd ze standardowego źródła 3,3 V na płycie głównej, lecz wewnętrznie pracują z napięciem 2,9 V. Zasadnicza część procesora pracuje z obniżonym napięciem, co prowadzi do znacznego zmniejszenia całkowitego poboru energii i ilości wydzielanego ciepta. co jest idealnym rozwiązaniem w przypadku komputerów typu laptop czy notebook, w których istotne jest oszczędzanie baterii. Oprócz VRT, niektóre modele procesora Pcntium stosowane w komputerach przenośnych są przystosowane do pracy / napięciem /asilania 3.1 V zamiast standardowego napięcia 3,3 V.
Tabeta 6.24.
Wersja
Okreśtenie zasilania
typu
napięcia Zakres napięcia zasilania
-
Std.
4,75-5,25 V
-
5V1
4,90-5,25 V
-
5V2
4,90-5,40 V
-
5V3
5,15-5,40 V
B1-B5
Std.
3,135-3,465 V
C2+
Std.
3,1 35-3.460 V
-
VR
3.300-3.465 V
B1-B5
VRE
3,45-3, 60 V
C2+
VRE
3,40-3,60 V
-
MMX
2,70-2.90 V
3
Mobile
2,285-2.665 V
3
Mobile
2, 10-2,34 V
1
Mobile
1.850-2, i 50 V
1
Mobile
1,665-1.935 V
Gdybym nnal obecnie doradzać zakup używanego komputera z procesorem Pentium, wybrałbym tylko Model 2 (drugiej generacji) lub nowszy, pracujący z częstotliwością co najmniej 75 MU/. Koniecznie musi to być wersja C2 lub nowsza. Praktycznie \\s/sstkie wykryte wady procesora zostały usunięte począwszy od wersji C2. AMDK5 Procesor AMD-K5 jest to procesor kompatybilny z Pentium, opracowany przez Intnę A\H' Istniej;) ro/ne je^o wersje, oznaczone odpowiednio: PR75, PR90, PRIOO, PRł20, l'l\l \- ma/ l'R-166. Ponieważ był on opracowywany z myślą o pełnej zgodności zarówno od strony nz\tkowej, jak i od strony spr/ętu. jakakolwiek płyta główna obsługująca procesor Pcntitim powinna sobie poradzić z procesorem K5. Może się jednak okazać, że niezbędne będ/.ic uaktualmenie BtOS-u. Procesor charakteryzuje się następującymi cechami: + 16 kB pamięci cache dla instrukcji oraz 8 kB dla danych w trybie write-back
+
Dynamic/nc wykonywanie - wraz z przewidywaniem gałęzi oraz spekuiatywnym wykonywaniem instrukcji (patrz odpowiednie fragmenty na początku rozdziału)
+ Jednostka aryimct\c/na o wysokiej wydajności, + Ustawialny mnożnik częstotliwości - i,5 lub 2. 'umimo hard/icj /aawansowanej budowy w porównaniu z procesorem Pentium, procesor K5 jest nada) traktowany (również przez producenta) jako procesor generacji P5. Dzięki
tym usprawnieniom, procesor ten nie musi być taktowany taką samą częstotliwością jak zwykłe Pentium, aby osiągnąć jego wydajność. Procesory K5 pracują pod napięciem 3,52 V. Niektóre starsze płyty główne nie przewidują takiego ustawienia. Praca / napięciem 3,3 V może spowodować niestabitne działanie. Procesory pseudopiątej generacji łstnieje procesor, który choć jest okreśłany mianem procesora piątej generacji, nie posiada niektórych sztandarowych rozwiązań charakteryzujących jego konkurencję. Jest to 1DT Centaur C6 Winchip. Procesor ten nie posiada wiełu wewnętrznych potoków. Jest przez to bardziej zbtiżony do procesora 486 niż do Pentium. Jednak jego wydajność oraz wyprowadzenie nóżek, charakterystyczne dła procesorów Pentium pracujących w gnieżd/ic Socket 7, sprawiły, że okazał się ideatnym rozwiązaniem dla łanich systemów komputerowych, w pełni kompatybitnych z Pentium. DT Centaur C6 Winchip Procesor C6 zawiera rozszerzenia MMX i jest dostępny w wersjach 180, 200, 225 oraz 240 MHz. Jest on tańszy od procesorów Pentium MMX. Firmę Centaur prowadzi Głenn Henry, który przedtem przez ponad dwie dekady projektował systemy w firmie iBM, a przez sześć tat był szefem biura technicznego w Delł Computer Corp. Firmę tą niedawno zakupiło łDT, znany producent kości SRAM (statyczny RAM). Jako producent, udostępnił swoje fabryki półprzewodników, przez co ohni/ono koszty procesora. Ich doświadczenie może zaowocować w najbliższej przyszłości Limics/c/cniem w jednej kości procesora oraz zewnętrznego Cache L2 - rozwiązanie do tej pory spotykane w procesorach Pentium Pro. Procesor Co ma .12 kB pamięci cache dta instrukcji oraz 32 kB pamięci d!a danych -c/ylt jak K6 firmy AMD oraz 6.\86MX Cyrixa. Jednak jest on zbudowany jedynie z 5,4 miliona tran/.ystorów, a nie jak konkurencja odpowiednio 8,8 miliona dla AMD, a 6,5 miliona dla Cyrixa. Efektem tej oszczędności jest zmniejszenie powierzchni układu, co również wpływa na oszczędzanie energii. Pomimo tylko jednego potoku, dzięki umie-jctncmu /optymalizowaniu kodu, dużemu rozmiarowi pamięci cache, dobrym układom /ar/ąd/ającyin tą pamięcią, procesor ten niewiele ustępuje produktowi Intela. A z. zalety niskiego poboru mocy wynika możtiwość zastosowania tego procesora w komputerach [n/cnośnych. Bez stosowania specjalnych wersji. Aby nie komplikować rozwiązań, firma Centaur skoncentrowała swój wysiłek na /maksymalizowaniu wydajności zwykłych aplikacji biurowych, a jedynie zagwarantowaniu działania funkcji MMX oraz jednostki arytmetycznej. Oczywiście wpływa to na mak) sprawność procesora w zastosowaniach multimedialnych. P6 (686) Procesory szóstej generacji
Procesory tej generacji są wzbogacone o do tej pory niespotykane rozwiązania. Dwoma typowymi przedstawicietami tej rodziny są procesory Pentium Pro oraz Pentium H. Pomimo konserwatywnego nazewnictwa, procesory te to coś więcej niż tytko rozszerzenie Unii Pentium. Główną innowacją w procesorach Pentium była architektura superskalarna. Późniejsze procesory tej generacji posiadały rozszerzone zestawy instrukcji: MMX, 3DNow itp. Głównymi atutami nowszej - szóstej - generacji są: dynamiczne wykonywanie rozkazów oraz podwójna magistrala lokałna (Dual Independent Bus - DIB). Na temat owych unowocześnień można przeczytać na początku tego rozdziału. Przypomnę jedynie, że dynamiczne wykonywanie rozkazów składało się z trzech etementów: przewidywania przepływu programu, analizy danych - stwierdzania, które dane są najpitniej potr/.ebne, by móc pracować w wielu potokach - oraz uruchamianiu spekulatywnym, czyli z pewnym wyprzedzeniem wobec aktualnego miejsca w programie. Zastosowanie drugiej magistrali - czyli DIB - pozwoliło na przeniesienie układów cache bezpośrednio na płytkę procesora oraz na uniezałeżnienie szybkości działania pamięci Cache L2 od s/ybkości magistrali łączącej procesor z płytą główną. W dotychczasowych rozwiązaniach, przy prędkościach procesora powyżej 300 MHz, pamięć cache L2 nie nadążała za procesorem. Jest to jeden z powodów, dła których Intel nie produkuje procesorów P5 szybszych od 266 MHz. A wiadomo już teraz, że linia procesorów P6 nie zakończy się na produkowanych wersjach 450 MHz, gdyż będą produkowane wersje 500 MHz i szybsze. Procesorom P6 dodano więcej modułów przetwarzania oraz możliwość tłumaczenia rozkazów procesora na specjalne mikroinstrukcje. Umożliwiło to zastosowanie architektury dużo bardziej zbliżonej do procesorów RISC, przez co ułatwiono potokowość wykonywania rozkazów (superskalarność). Mówi się, że procesor ten jest trójścieżkowy, gdyż może w jednym cykłu wykonać do trzech rozkazów. Dodatkowe zmiany to wbudowanie możliwości pracy wietoprocesorowej, poprawienie wykrywania błędów oraz zoptymalizowanie dła kodu 32-bitowego. Niewątpliwie procesor ten jest szybszy od swojego poprzednika. Jednak ze względu na to, iż optymalizację przeprowadzono dla kodu 32-bitowego, uruchomienie 16-bitowego kodu wcale nie musi się okazać dużo szybsze. Widać to porównując wydajność systemu Windows NT ora/. Windows 9X. Okazuje się mianowicie, że Windows NT pracuje szybciej - ze względu na to, że cały jest napisany w kodzie 32-bitowym. A Windows 9X z powodu mieszanego - 16 bitowego i 32- bitowego kodu -jest wolniejsze. Oczywiście nie tak wiele zaieży od samego systemu operacyjnego, żeby móc kategorycznie twierdzić, który system jest lepszy. Dużo ważniejsze są aplikacje, z którymi przyszło systemowi Windows pracować. Procesor Pentium Pro Następcą procesora Pentium jest PennM/M Pro. Procesor ten został zaprezentowany we wrześniu 1995 roku, a w sprzedaży znalazł się w roku 1996. Sam procesor jest zamknięty w 387-końcówkowej obudowie pasującej do gniazda Socket 8, tak więc nie pasuje do poprzednich typów gniazd. Pentium Pro jest wyjątkiem wśród procesorów, gdyż jest wykonany w postaci modułu MCM (Mu)ti-Chip Module, dosł. moduł wietoukładowy), na/\\anego przez firmę Inte! OżM/ Cawfy FCA. Wewnątrz 387-końcówkowej obudowy znajdują się dwa układy, z których jeden jest właściwym procesorem Pentium Pro, a drugi zawiera 256 kB lub 512 kB pamięci cache drugiego poziomu. W skład procesora wchodzi 5,5 miliona tranzystorów, natomiast pamięć cache 256 kB zawiera 15,5 mitiona tranzystorów, a pamięć cache 512 kB - 31 milionów tranzystorów. W pojedynczym module zawierającym procesor i 512 kB pamięci cache jest więc aż 36,5 miliona tranzystorów!
Rysunek 6.22.
Rysunek 6.23.
Inną, charakterystyczną cechą dla procesorów szóstej generacji jest architektura DIB (Dual Independent Bus), która przełamuje ograniczenia związane z przepustowością pamięci \v architekturach procesorów poprzednich generacji. Architekturę DIB tworzą dwie magistrale: magistrala pamięci podręcznej L2 (zawarta w całości w obudowie procesora) oraz magistrala pomiędzy procesorem a pamięcią systemową. W procesorach Pentium Pro dedykowana magistrata pamięci podręcznej L2 działa z pełną częstotliwością procesora. Osiągnięto to dzięki zintegrowaniu układów pamięci podręcznej z procesorem. Architektura DIB przełamuje ograniczenia związane z przepustowością magistrali pumicd/y procesorem a pamięcią systemową i oferuje
przepustowość do trzech razy większą od przepustowości osiąganej przez jednomagistralowe procesory ,,Socket 7", którymi są na przykład procesory Pentium.
Rys.6.24.
Tabe!a 6.25. cd. .S/jt procesorów Penf/Mfn Pro Rozmiar zintegrowanej 8 kB na kod, 8 kB na dane (łącznie 16 kB) pamięci podręcznej H: Podstawka/złącze: Socket 8 Obudowa: Wymiary:
378 końcówkowa DCPGA (Dua! Cavity Pin Grid Array) 6,25cm x 6,76cm
Koprocesor: zmiennoprzecinkowa)
Wbudowany
Zarządzanie energią:
SMM (System Management Modę)
Napięcie zasilania:
3,1 lub 3,3 V
w
procesor
(Jednostka
Tabeta 6.26. ó'prL'\'/i'AY;cyć;po.!;c*egó//?\'
18 sierpnia 1997 Częstotliwości pracy:
200 MHz (66
5,5 miliona (w technologii 0,35 mikrona) oraz 62 w l MB pamięci podręcznej L2 (0,35 mikrona)
Pamięć podręczna: pracującej
8 kB x2 (16 kB) pamięci podręcznej H oraz l MB z częstotliwością procesora pamięci podręcznej L2
Rozmiar matrycy: 14,0 mm na stronę Procesor Pentium Pro (200 MHz) Data wprowadzenia: l listopada 1995 C/cstotliwości pracy: 200 MHz (66 MHz x3) Wydajność wg iCOMP 2.0: 220 Liczba tranzystorów: miliona
l'. imięć podicc/mi: kB
5,5 miliona (w technologii 0,35 mikrona) oraz 15,5 w 256 kB pamięci podręcznej L2 (0,6 mikrona) lub 31 milionów w 512 kB pamięci podręcznej L2 (0,35 mikrona) 8 kB x2 (16 kB) pamięci podręcznej H oraz 256 lub 512 pracującej z podręcznej L2
częstotliwością
procesora
pamięci
Rozmiar matrycy: 14,0 mm na stronę Procesor Pentium Pro (180 MHz) Data wprowadzenia: l listopada 1995 Częstotiiwości pracy: 1 80 MHz (60 MHz x3) Wydajność (iCOMP 2.0) 180 Liczba tranzystorów: miliona
5,5 miliona (w technologii 0,35 mikrona) oraz 15,5 w 256 kB pamięci podręcznej L2 (0,6 mikrona)
Pamięć podręczna: pracującej
8 kB x2 (16 kB) pamięci podręcznej LI oraz 512 kB z częstotliwością procesora pamięci podręcznej L2
Rozmiar matrycy:
14,0 mm na stronę
Tabeta 6.26. cd. Procesor Pentium Pro (166 MHz) Dal. i oprowadzenia:
l listopada 1995
«su pracy:
166 MHz (66 MHz x2,5)
Liczba tranzystorów: milionów
5,5 miliona (w technologii 0,35 mikrona) oraz 31 w 512 kB pamięci podręcznej L2 (0,35 mikrona)
1'amięc podręc/na: pracującej
8 kB x2 (16 kB) pamięci podręcznej LI oraz 512 kB z częstotliwością procesora pamięci podręcznej L2
Ro/nuar matrycy: Datawprowad/cnia: MHz x2,5) Liczba tranzystorów: miliona
14,0 mm na stronę Procesor Pentium Pro (150 MHz) l listopada 1995 Częstotliwości pracy:
1 66 MHz (60
5.5 miliona (w technologii 0,6 mikrona), oraz 15,5 w 256 kB pamięci podręcznej L2 (0,6 mikrona)
Pamięć podręc/.na: pracui;n\'i
S kB x2 (16 kB) pamięci podręcznej LI oraz 256 kB z częstotliwością procesora pamięci podręcznej L2
Ro/iiiiai matrycy:
17.6 mm na stronę
Jak widać z tabeli 6.2, różnica w mierzonej za pomocą programu iCOMP 2.0 tndex wydajności pomiędzy zwykłym procesorem Pentium 200 MHz (142) a Pentium Pro 200 MHz (220) wynosi aż 78 punktów. Zauważ, że w niektórych zastosowaniach wydajność pracującego również z. częstotliwością 200 MHz procesora Pentium MMX wynosi 1 82 punkty. Warto zapamiętać, że wykazywana przez iCOMP 2.0 przewaga procesora Pentium Pro niemal całkowicie niknie przy korzystaniu z jakiejkolwiek aplikacji 16-bitowej. Podobnie jak jego poprzednik Pentium, Pentium Pro działa na 66-megahercowych płytach głównych korzystając z, mnożnika częstottiwości. W poniższej tabeli zostały wypisane częstotliwości pracy płyt głównych i procesorów Pentium Pro.
Mnożnik częstotliwościCzęstotiiwość płyty gównej Typ procesora częstotliwość Pentium Pro 150 2,5x
60
l\']inmn Pro 166 2.5x
66
Pentium Pro 180 3x
60
Pcntium Pro 200 3x
66
integrowana z. procesorem pamięć cache drugiego poziomu jest szczegółnie charakterystyczną cechą procesora Pentium Pro. Dzięki wbudowaniu jej w moduł procesora zamiast umieszczenia na płycie głównej, dostęp do pamięci cache odbywa się z pełną szybkością układów pamięci i nie jest ograniczany przez częstotliwość magistrali, wynoszącą 60 czy ()() MHz. Pamięć cache drugiego poziomu komunikuje się z procesorem za pośrednictwem
osobnej magistrati 64-bitowej zamiast poprzez 64-bitową zewnętrzną magistralę danych. Tu ostatnie ro/\\ią/anie jest wołniejsze, ponieważ magistrala tnusiałaby być współdzielona pr/.c/. pamięć cache i pamięć RAM. Wewnętrzne rejestry i magistrale procesora s;) nadal 32-bitowe, podobnie jak w procesorze Pentium. Wbudowanie pamięci cache drugiego poziomu w moduł procesora pozwoliło na obniżenie ceny płyty głównej, ponieważ nie musi ona już obsługiwać osobnych układów pamięci cache. Niektóre płyty nadal umożtiwiają korzystanie z dodatkowej pamięci cache, jednak generalnie pamięć cache trzeciego poziomu (bo tak należałoby ją nazwać) nie przyczyni się do tak dużego wzrostu wydajności procesora Pentium Pro jak w przypadku Pentium. Jedną z zalet wbudowania pamięci cache drugiego poziomu w moduł procesora jest s\K'ks/cnie w ten sposób wydajności konfiguracji wieloprocesorowych. Zamiast architektury SMP stosowanej w komputerach Pentium, Pentium Pro obsługuje specyfikację /W,y /./^M/rropror^Mor^er//^'^^^/;). Dzięki MPS możliwa jest współpraca do czterech procesorów Pentium Pro na jednej płycie głównej. W przeciwieństwie do innych konfiguracji wieloprocesorowych, w komputerze z wieloma procesorami Pcnlium Pro nie występują problemy ze spójnością danych, ponieważ każdy procesor posiada własną pamięć cache pierwszego i drugiego poziomu. Płyty główne komputerów Pentium Pro są oparte wyłącznie o magistrale PCI i ISA. Firma łntel produkuje własne chipsety płyt dla Pentium Pro. Pierwszym z nich był układ o na/wie Orion, nowsza wersja nosi nazwę Natoma. Wraz z nowymi chipsetami firma łntel opracowała nowy format płyty głównej. Format ten nosi nazwę ATX i jest [\)/t)\ formatu Baby-AT, spotykanego w przeszłości w większości komputerów PC. Płyta formatu ATX ma prawie takie same rozmiary (9x13 cala), jak płyta Baby-AT, lednak icsi odwrócona w stosunku do Baby-AT o 90 stopni. Inaczej mówiąc, dłużs/a krawędź płyty /najdujc się naprzeciwko tylnej części obudowy, a gniazda rozszerzające są położone równoległe w stosunku do krótszej krawędzi płyty. Głównym powodem przemawiającym /a zastosowaniem nowego formatu ATX jest przesunięcie procesora w miejsce, w którym nie kołidowałby z kartami rozszerzającymi, co powinno zapewnić leps/c chłod/cnic. W płytach Baby-AT umieszczenie procesora w pobtiżu gniazd ro/-szer/.ających powoduje problemy z chłodzeniem, co czasami uniemożliwia korzystanie /e \\.vvstkich gnia/d ro/szerzających. Inna /atcią formatu ATX jest usytuowanie dłuższej krawędzi płyty głównej naprzeciwko tylnej c/eści obudowy, dzięki czemu na płycie jest dodatkowe miejsce na złącza. Płyty ATX cechują się wysokim stopniem integracji: mają wbudowane dwa porty szeregowe, port równoległy, kontroler stacji dyskietek, dwa poiły E!DE, wbudowaną kartę dźwiękową, kartę grafiki SVGA i opcjonalne karty graficzne oraz sieciowe. Oczywiście, nowy format płyty głównej wymaga zastosowania zmienionej obudowy, można jednak wykorzystywać zasilacze Baby-AT. Firma Intel udostępnia dane na temat formatu ATX, z czego skot/ystalo już wielu producentów przy opracowywaniu własnych płyt. Pojawiły się już ptyty ATX dla komputerów z procesorem innym niż Pentium Pro, jednak w najbliższych latach format AT.X może zostać wyparty przez nowy format NLX. Niektórzy producenci komputerów z Pentium-Pro nie oparli się pokusie pozostania przy formacie Baby-AT. Problemem / Baby-AT jest zapewnienie odpowiedniego chłodzenie pincesota. Masywny procesor Pcntium-Pro pobiera 25 W mocy i wydziela duże ilości ciepła.
Procesory Pcntium Pro posiadają cztery specjatne końcówki identyfikacji napięcia (VłD). U/icki mm możliwe jest automatyczne wykrywanie i ustawianie odpowiedniego napięcia /asilania. Płyty główne pod procesory Pentium Pro nie posiadają zworek, za pomocą których natęży wybrać odpowiednie napięcie, tęcz robią to automatycznie, co /nac/nic upraszcza instalację i konfigurowanie procesorów. Końcówki VID są a)bo nv\\aite. albo /warte z napięciem. Wymagane
przez procesor napięcie zostaje zdefiniowane pnpr/c/ odpowiedni wzór zwarć i rozwarć. Aby w pełni zaspokoić wymagania automatycznej identyfikacji napięcia, w projekcie końcówek VID uwzgiędniono moż-tiwosc o/nac/ania innych napięć, na potrzeby przyszłych procesorów Pentium Pro. Końcówki V!D zostały ponumerowane od VIDO do VID3; znaczenie poszczególnych ustawień jest opisane \v tabeli 6.27. Cyfra ł oznacza końcówkę otwartą, O - zwartą do masy. Znajdujące się na płycie głównej regulatory napięcia powinny albo obsłużyć wymagane napięcie, atbo się wyłączyć. Większość procesorów Pentium Pro jest zasilana napięciem 3,3 V. choć niektóre wymagają 3,1 V. Pomimo iż jak na razie są dostępne tylko te wersje procesorów, tak duża ro/ptętość ustawień napięcia /asilania umożliwi spełnienie wymagań przyszłych proceso-!\-\\ Pentium Pro. Zauważ, że ustawienie II H (lub wszystkie otwarte) ID może zostać wykorzystana do sprawdzenia, czy procesor znajduje się w podstawce. Pmccsoty Pentium Pro nigdy nie zyskały dużej popularności wśród komputerów biurowych i domowych, lecz znalazły dla siebie miejsce wśród serwerów plików, przede \\s/ys)kim d/ięki pracującej z pełną częstotliwością procesora, pojemnej pamięci pod-lec/nej drugiego po/.iomu (L2). Można się spodziewać, że tntel wprowadzi na rynek jcs/c/c tylko jedną lub dwie wersje Pentium Pro. przeznaczone głównie dla tych, którzy chcą /ainstatować szybsze procesory w już posiadanych płytach głównych. Jednak w większości przypadków lepszym rozwiązaniem będzie zainstatowanic zamiast tego nowej płyty gtównej z procesorem Pentium II. puni/s/ych tabelach wypisano specyfikacje różnych wersji procesorów Pentium Pro. Podobnie jak inne procesory, Pentium Pro były produkowane w wielu różnych modelach i podwersjach. W poniższej tabeli wypisane są wszystkie modele i podwersje Pentium l'm \\\'t-^- procesora możesz rozpoznać po wydrukowanym na nim numerze. Pentium !! Na/\\ą kodową procesora Pentium H było ,.KIamath". Jego istnieniu towarzyszyło \Mclr plotek, które rozwiało oficjalne odsłonięcie kurtyny w maju 1997 roku. Macierz procesora ukazano na fotografii z rysunku 6.25.
Rys.6.25
Pod względem fizycznym jest to naprawdę coś nowego. Do czasu ukazania się Pentium H, \\s/ystkie procesory instalowano w podstawkach; procesor Intela jest natomiast any /godnie z definicją SEC (Single Edge Cartridge). Procesory Pentium H, łącznic z uktadami pamięci podręcznej drugiego poziomu są montowane na płytce druko-\\aiK'i [podobnie jak moduły pamięci S!MM), tak jak zostało to pokazane na rysunku 6.26. Nadepnie procesor jest zamykany w metalowo-plastikowej kasecie. Kaseta z procesorem jest umieszczana na płycie głównej w specjalnym złączu, nazwanym Slot ł, które bardzo przypomina zląc/a kart rozszerzeń. [)icki zastosowaniu rozwiązania, w którym oddzielne układy pamięci podręcznej montowane są na płytce drukowanej z procesorem. Intel znacząco obniżył koszt produkcji procesorów Pentium H. Koszt produkcji procesorów Pentium Pro był znacznie wyższy, z powodu wynikającej z wymiarów i konstrukcji obudowy konieczności stosowania wielokrotnych matryc. Dodatkową zaletą nowego rozwiązania jest możliwość kui/\ stania / układów pamięci podręcznej innych producentów i, w porównaniu do rozwiązań zastosowanych w procesorach Pentium Pro, znaczne uproszczenie różnicowania pojemności pamięci podręcznej w przyszłych wersjach procesora.
Rysunek 6.26.
Typ i częstottiwość Mnożnik pracy Częstot!iwość procesora Pcntium H 233 MHz 3,5x 66 MHz t\'ntnnnH 266 MHz
4x
66 MHz
1'cnnum II 300 MHz
4,5x
66 MHz
l\'nnum H 3.13 MU/.
5x
66 MHz
[\-imunt H 350 MHz
3,5x
IOOMH/
friitmm !l 40t)MH/.
4x
100 MHz
Pcntiunt H450 MHz
4.5x
1 00 MHz
pracy głównej
Jądro procesora Pentium H zawiera 7,5 miliona tranzystorów i bazuje na zaawansowanej architckim/c l'ó Intcta. Pierwsze procesory Pentium H zostały wykonane w technologii 0,33 mikrona, no\vs/c wersje, pracujące z częstotliwością 333 MHz i wyższymi, są wykonane w technologii 0,25 mikrona. Zmiana technologii umożliwiła wykorzystanie mniejszych matryc, zmniejszyła pobór energii oraz umożliwiła pracę z większymi częstotliwościami. Pracujący z częstotłiwością 333 MHz procesor Pentium H ma o 75-100% wicks/ą wydajność od 233-megahercowego procesora Pentium MMX; osiąga również o około 30' < wicks/c wskaźniki wydajności w multimedialnych testach wydajności. Są to bardzo szybkie procesory, przynajmniej na razie. Tak jak jest to pokazane w tabeli 6.2, \vyka/ywana pr/c/ program iCOMP 2.0 wydajność Pentium H 266 MHz jest ponad d\\a ia/\ wicks/.a od wydajności zwykłego procesora Pentium 200 MHz. Po/osiawiając na boku kwestię szybkości, najlepiej jest myśleć o Pentium H jako o Pentium Pro / dodanymi instrukcjami MMX i nieco zmodyfikowanym projektem pamięci pndicc/ncj 1'cnttum II posiada te same co Pentium Pro możliwości współpracy z wieloma procesorami ora/ /integrowaną pamięć podręczną L2. Z procesorów MMX przeniesiono do niego 57 nowych instrukcji oraz zdolność do bardziej efektywnego przetwarzania l'o\\ia!/aj;)cych się poleceń. Procesory Pentium H posiadają również więcej od procesorów Pcntium Pro pamięci podręcznej LI (zamiast w sumie ł6 kB, posiadają łącznie 32 kB). Pierwsze procesory Pentium II były wykonane w technołogii 0,35 mikrona. Nowsze wersje, poczynając od pracujących z częstotłiwością 333 MHz, są wytwarzane w nowszej technologii 0,25 mikrona. Intel rozważa przejście w przyszłości na technologię O, l S mikrona. D/tęki przechodzeniu na mniejsze technologie zmniejsza się również zapotrzebowanie na energię.
płyty
W pontzs/cj tabeli wypisane są wartości maksymalnego zużycia mocy dla ittt) Atll/
27,9 W
0.25 mikrona
2,0v
350 Ml!/
24.5 W
0,25 mikrona
2.0 V
333 MII/
23,7 W
0,25 mikrona
2.0 V
300 M ii/
43.0 W
0,35 mikrona
2,8 V
266 M H/ 38,2 W
0.35 mikrona
2,8 V
233 MU/
0,35 mikrona
2,8 V
34.8 W
procesorów Pcniium II
.lak \\idae.sa, 400-megahercowa wersja Pentium II zużywa mniej mocy od pierwszej, 233-megahercowej wersji tego procesora! Wynika to z zastosowania mniejszej technologii 0,25 mikrona i zasilaniu procesora mniejszym napięciem 2,0 V. Przyszłe wersje procesorów Pentium II w celu uzyskania jeszcze większej wydajności i zmniejszenia poboru mocy będą produkowane w technologii 0,25 i 0,ł8 mikrona, a /asiiane mniejszymi napięciami. 1'roccsory Pentium II zawierają wprowadzoną po raz pierwszy w procesorach Pentium Pro technikę dynamicznego wykonywania programów (Dynamie Execution). na którą sktada się kitka unikatowych rozwiązań Intela w dziedzinie poprawy wydajności. Główne jej elementy to wielopoziomowa predykcja rozgałęzień (Multiple Branch Pre-diction). która przyśpiesza działanie programu dzięki przewidywaniu jego przebiegu w kolejnych rozgałęzieniach; analiza przepływu danych (Dataflow Analysis), potęgująca na anah/ic i modyfikacji porządku realizowanych instrukcji pod kątem ich gotowości do wykonania, ora/ wykonywanie z wyprzedzeniem (Speculative Execution), polegające na wybieganiu poza bieżący punkt wykonywania programu i realizacji ,,z wyprzedzeniem" instrukcji, które przypuszczalnie zostaną wywołane za chwiię. Podobnie jak procesory Pentium Pro, procesory Pentium II posiadają architekturę DIB. Architekturę DIB tworzą dwie magistrale: magistrala pamięci podręcznej L2 (zawarta w całości w obudowie procesora) oraz magistrala pomiędzy procesorem a pamięcią systemowa,. Procesory Pentium II mogą korzystać równocześnie z obu magistral, co oznac/a, że mogą wysyłać i odbierać dwa razy więcej danych niż procesory jednomagistra-lowe. Dzięki architekturze DIB pamięć podręczna L2 w 333-megahercowym procesorze Pentium H pracuje 2,5 ta/a szybciej od pamięci podręcznych L2 procesorów Pentium. W miarę wzrasiania częstotliwości pracy przyszłych procesorów Pentium II, będzie również wzrastać częstotłiwość pracy ich pamięci podręcznych drugiego poziomu (L2). Dodatkowo, potokowa magistrata systemowa umożliwia zastąpienie transakcji sck\\cncyin\d) równocześnie wykonywanymi transakcjami równoległymi. Architektura DIP oraz większe częstottiwości pracy pamięci podręcznej L2 umożliwiają nawet trzykrotne /\\ięks/.cnie przepustowości w porównaniu z zastosowaną w procesorach Pentium architekturze pojedynczej magistrali.
Jak wynika z tabeh, Pentium H może obsłużyć do 64 GB fizycznej pamięci. Procesory Pentium II, podobnie jak Pentium Pro, posiadają architekturę DIB. Oznacza to, że procesor posiada dwie magistrale; jedną z nich są przesyłane dane do pamięci podręcznej L2, druga służy do przesyłania i pobierania danych z pamięci systemowej. Dzięki temu, że obie magistrate mogą pracować jednocześnie, znacząco zwiększyła się przepustowość przepływu danych. Pamięć podręczna pierwszego poziomu (LI) zawsze działa z pełną częstotłiwością procesora, ponieważ jest umieszczona bezpośrednio w jego strukturze. W procesorach Pentium II pamięć podręczna drugiego poziomu (L2) pracuje z połową częstottiwości procesora, co obniżyło koszty produkcji i umożłiwiło stosowanie tańszych układów pamięci podręcznej. Na przykład, w procesorze Pentium II 333 MHz pamięć podręczna LI działa z częstottiwością 333 MHz; natomiast pamięć podręczna L2 z 167 MHz. Nawet jeśłi pamięć podręczna L2 procesorów Pentium II nie jest tak szybka jak pracująca z pełną częstotłiwością procesora pamięć L2 Pentium Pro, nadał jest to rozwiązanie o wiełe łepsze od umieszczania pamięci podręcznej na pracującej z częstothwością 66 MHz płycie głównej. Inteł twierdzi, że zastosowana w procesorach Pentium II architektura DIB umożłiwia uzyskanie przepustowości do trzech razy większej od przepustowości osiąganej przez procesory pracujące na jednej magistrałi. Dzięki umieszczeniu pamięci podręcznej poza strukturą procesora i wykorzystaniu zewnętrznych układów, montowanych na płytce drukowanej z procesorem, Inte) mógł skorzystać z większej ticzby tanich i wydajnych układów pamięci podręcznej; łatwiejsze stało się również dostosowanie procesora do wyższych częstotłiwości. Częstotłiwość pracy procesorów Pentium Pro była ograniczona do 200 MHz, głównie z powodu kłopotów ze znałezieniem układów pamięci podręcznej, które mogłyby pracować z choć trochę większą częstotiiwością. Dzięki temu, że w procesorach Pentium II pamięć podręczna drugiego poziomu działa z połową częstotłiwości taktowania jądra, procesory te mogą działać nawet do częstotłiwości 400 MHz, nadał korzystając z 200-megahercowych układów pamięci podręcznej. Aby zrównoważyć mniejszą częstotłiwość pracy pamięci podręcznej procesorów Pentium II, Inteł podwoił jej iłość z podstawowych 256 kB w Pentium Pro do 512 kB w Pentium II. Zwróć uwagę, że pamięć indeksu Tag RAM, będąca częścią pamięci podręcznej L2 procesorów Pentium II pracujących z częstotłiwościami od 233 do 333 MHz, umożliwia buforowanie do 512 MB pamięci systemowej. Pracujące z wyższymi częstotłiwościami wersje procesora Pentium II posiadają pojemniejszą pamięć indeksu Tag RAM umożli-wiającą buforowanie 4 GB. Ma to bardzo duże znaczenie, jeśłi zamierzasz mieć w komputerze więcej niż 512 MB pamięci. W tym wypadku powinieneś zakupić Pentium II pracujący z częstotłiwością co najmniej 350 MHz, ponieważ przy wołniejszych wersjach bardzo obniżyłaby się wydajność pamięci. Zastosowana w procesorach Pentium II magistrala systemowa umożliwia montowanie bez dodatkowych układów jeden lub dwa procesory na płycie głównej. Dzięki temu możtiwe stało się budowanie tanich, dwuprocesorowych komputerów uzyskujących o wiele wyższą wydajność w wielozadaniowych systemach operacyjnych i wielowątkowych aplikacjach. Przyszłe chipsety będą mogły obsłużyć cztery lub nawet więcej procesorów PH w jednym, wieloprocesorowym komputerze; takie systemy będą stosowane przede wszystkim jako serwery ptików.
Dostępne są również wersje procesorów Pentium II posiadające magistralę pamięci podręcznej L2 z kodem korekcji błędów ECC. Są one przeznaczone przede wszystkim do serwerów i innych, spełniających bardzo odpowiedzialne funkcje systemów, w których bardzo ważna jest niezawodność i integralność danych. W celu uzyskania wysokiej niezawodności i intcgratności danych, we wszystkich procesorach Pentium II zastosowano /ahc/pieczone parzystością adresowanie oraz system sygnałów zwrotnych magistrali, / mechanizmem powtórzeń przekłamanych danych. Do umieszczenia Pentium II na płycie głównej wymagane są specjalne uchwyty podtrzymujące procesor. Uchwyty te są przykręcane do płyty głównej i nie tylko podtrzymują procesor, ate i zabezpieczają go przed skutkami wstrząsów i wibracji. Mechanizm podtrzymujący procesor powinien zostać dostarczony przez producenta płyty głównej (mechanizm ten, jak również wiele innych niezbędnych elementów, jest dostarc/any na przykład \\iaz z płytami głównymi AL440LX i DK440LX Intela). Pentium II wytwarza duże ilości ciepła, które musi zostać odprowadzone. W tym celu na obudowie kasety z procesorem znajduje się radiator. W wielu procesorach Pentium II na radiatorze jest umieszczony zapewniający lepsze chłodzenie wentylatorek. W odróżnieniu od wentylatorków umieszczanych fabrycznie w procesorach Pentium, wentylatorki moniowane pr/.e/. Itttet na kasetach SEC procesorów Pentium II czerpią zasilanie / trojkoń-cówkowego wyjścta na płycie głównej. Wyjście takie posiada większość płyt głównych Pentium H. Do prawidłowego zamocowania procesora niezbędne są specjalne uchwyty podtrzymujące radiator, które mocuje się w otworach na płycie głównej. Uchwyty te instaluje się zazwyczaj przed umieszczeniem na płycie procesora z radiatorem. Większość chłodzonych powietrzem radiatorów składa się z dwóch osobnych elementów: wentylatorka w plastikowej osłonie oraz metalowego radiatora. Radiator zostaje przymocowany do procesora i nie powinien być już zdejmowany. W razie konieczności (na przykład awarii), wentylatorek może zostać odłączony i wymieniony na nowy. Na rysunku 6.27 przedstawiono sposób montażu na płycie głównej poszczególnych elementów kasety SEC, wraz /. radiatorem, wentylatorkiem i uchwytami podtrzymującymi; zostało również zaznaczone rozmieszczenie otworów na płycie głównej. W poniższych tabelach zostały wypisane specyfikacje poszczególnych wersji procesora Pentium II. Aby dokładnie określić możliwości i wersję posiadanego przez ciebie procesora Pentium II, przyjrzyj się kodowi specyfikacji wydrukowanemu na kasecie SEC. Kod specyfikacji jest nadrukowany na górnej płaszczyźnie kasety, na prawo od napisu Pentium H. Pole opisu procesora, w którym znajduje się kod specyfikacji, zostało zaznaczone na rysunku 6.28. Po odnalezieniu kodu specyfikacji (aktualnie jest to alfanumeryczny ciąg znaków), możesz sprawdzić w tabeli 6.30 wersję posiadanego procesora.
Rysunek.6.27.
Kod specyfikacji SL2KA określa na przykład procesor jako Pentium II pracujące z częstotliwością 333 MHz na 66-megahercowej płycie głównej. Informuje również, że procesor jest zasilany napięciem 2,0 V oraz że pamięć podręczna drugiego poziomu jest wyposażona w kod korekcji błędów ECC. Określona jest również podwersja procesora, a dzięki wydawanemu przez Intel Fćv;r;'i
326
Tabeta
Rozbudowa i naprawa komputerów PC fsfawowe oane procesorów Pe<
6.30. Po;
/afn^łacyjne
Podwersja jądra
Rozmiar pamięci podręcznej LI (kB)
Typ
Rodzina Model Podwersja
0
6
3
3
CO
512
0
6
3
3
CO
512
0
6
3
3
co
512
0
6
3
3
co
512
0
6
3
3
co
512
0
6
3
3
co
512
0
6
3
3
co
512
0
6
3
3
co
512
0
6
3
3
co
512
0
6
3
4
Cl
512
0
6
3
4
Cl
512
0
6
3
4
Cl
512
0
6
3
4
Cl
512
0
6
3
4
Cl
512
0
6
3
4
Cl
512
0
6
3
4
Cl
512
0
6
4
Cl
512
0
6
4
Cl
512
0
6
0
dAO
512
0
6
0
dAO
512
0
6
1
dAl
512
0
6
1
dAl
512
0
6
1
dAl
512
0
6
1
dAl
512
0
6
1
dAl
512
0
6
i
dAl
512
Częstottiwość pracy Podwersja pamięci indeksu TagRAM Kod specyfikacji ECC /brak ECC jądra/ magistra!! Uwagi T6/BO
SL264
brak ECC 233/66
T6/BO
SL265
brak ECC 266/66
T6/BO
SL268
ECC 233/66
T6/BO
SL269
ECC 266/66
T6/BO
SL2HK
brak ECC 233/66
2,OV
T6/BO
SL28L
brak ECC 266/66
2,OV
T6/BO
SL28R
ECC 300/66
72°C
T6/BO
SL2MZ
ECC 300/66
72°C, 2,0 V
T6/BO
SL2PV
ECC 266/66
2,OV
T6/BO
SL2HA
ECC 300/66
72°C
T6/BO
SL2HC
brak ECC 266/66
T6/BO
SL2HD
brak ECC 233/66
T6/BO
SL2HE
ECC 266/66
T6/BO
SL2HF
ECC 233/66
T6/BO
SL2QA
brak ECC 233/66
BOXF
T6/BO
SL2QB
brak ECC 266/66
BOXF
T6/BO
SL2QC
ECC 300/66
72°C, BOXF
T6/BO
SL2QD
ECC 266/66
BOXF
T6P/A3
SL2K
ECC 333/66
2,OV,60°C
T6P/A3
SL2QF
ECC 333/66
BOXF,2,OVv.
T6P-C/AO
SL2QF
ECC 333/66
BOXF,2,OV,4
T6P-e/AO
SL2S5
ECC 333/66
2,OV,4GB
T6P-C/AO
SL2S6
ECC 350/100
2,OV,4GB
T6Pu/AO
SL2S7
ECC 400/tOO
2,OV,4GB
T6P-e/AO
SL2SF
ECC 350/tOO
BOXF,2,OV,4
T6P-e/A()
SL2SH
ECC 400/tOO
BOXF,2,OV,4
Na płytach głównych Pentium II /.najduje się zaprojektowany do zasilania procesora układ regulujący napięcie. Obecnie jest produkowanych wiele wersji procesora Pentium II. nie /awsze pracujących z tym samym napięciem zasilania. W związku z tym, regu-iator napięcia musi dostosowywać się do potrzeb aktualnie włożonego procesora. Podobnie jak w procesorach Pentium Pro, napięcie zasilania procesorów Pentium H nie jest ustawiane tak jak w procesorach Pentium, za pomocą zworek czy przełączników; odpowiednie wartości napięcia są automatycznie ustawiane po odczytaniu stanów końcówek V1D procesora. Tabela 6.31 zawiera zależności pomiędzy stanem logicznym końcówek a ustawianym napięciem. Jeśli chcesz mieć pewność, że w komputerze można zainstalować każdą z wersji Pentium II, p)\ta główna musi obsługiwać wszystkie napięcia wypisane pogrubioną czcionką. Na-piccn.' /asiiania \\iekszosci procesorów Pentium I! wynosi 2.8 V, niektóre nowsze wersje wymagają 2,0 V. Procesor ..Mobile Pentium H" jest przeznaczony do wykorzystania w komputerach pi/cnośnych z chipsetcm 440BX. Chipset 440BX jest pierwszym chipsetem na rynku umożMwiającym pracę ze łOO-megahercową magistralą systemową, na razie jednak przenośna wersja procesora Pentium II nie umożliwia wykorzystania tej częstotliwości. Chipset 440BX ukazał się na rynku równocześnie z 350- i 450-megahercowymi wersjami Pentium ii i jest on za!ecanym minimum, jeśli kupujesz nową płytę główną Pentium !!. Patrz „Procesory Mobile Pentium H", Przyszłość Pentium !! Według planów rozwojowych, procesor Pentium II powinien zaspokoić potrzeby wszystkich użytkowników - ma być montowany zarówno w niedrogich komputerach domowych, jak i najdroższych serwerach. Dlatego jest on produkowany i sprzedawany w dwóch wersjach: szybszej, przeznaczonej dla zaawansowanych komputerów, oraz wolniejszej, okrojonej (Celeron). Istnieje również wersja Pentium II (Mobile Pentium H) przeznaczona do zastosowania w komputerach przenośnych. W procesorach Pentium II pracujących z częstotliwością 333 MHz i większymi, po raz pierws/y /asiosowano jądro ,,Dechutes". Dechutes to nazwa kodowa procesorów Pentium II wyprodukowanych w technologii 0,25 mikrona. Nazwa pochodzi od rzeki w Oregonie. Dla rynku taniego osprzętu (komputerów o cenie poniżej 4000 zł), zaprojektowano okrojoną, nie posiadającą pamięci podręcznej L2 i pracującą z 66-megahercową magistralą wersję Pentium II, noszącą nazwę Celeron. Procesor ten został wprowadzony na rynek na poc/.ątku 1998 roku; jest on umieszczany w złączu Slot l, a najwolniejsza wersja pracuje z częstotliwością 266 MHz. W drugie połowie 1998 roku ma się pojawić wersja Celerona wyposażona w 256 kB pracującej z pełną częstotliwością procesora pamięci podręcznej drugiego poziomu (L2). W drugiej połowie 1998 r. ma się również pojawić umieszczana w gnieździe Slot 2 wersja procesora Pentium II, zaprojektowana z myślą o średnio i bardzo zaawansowanych serwerach oraz stacjach roboczych. Ma ona nosić nazwę Xeon. Procesory te będą posiadały więcej pamięci podręcznej L2, która ma pracować z pełną częstotliwością procesora. Dzięki pojemniejszej pamięci podręcznej drugiego poziomu, Xeon będzie mógł buforować więcej pamięci systemowej. Pierwsze procesory Xeon mają pracować z częstotliwością 400 MHz (4 x 100 MHz), pod koniec roku ma się pojawić również wersja pracująca z częstotliwością 450 MHz (4,5 x 100 MHz). Początkowo Xeon będzie posiadał 512 kB pamięci podręcznej, docelowo jej ilość powinna wzrosnąć do 1-2 MB. Zastosowane w procesorach Xeon rozwiązania mają umożliwić montowanie bez dodatkowych układów specjalizowanych do czterech procesorów na płycie głównej. Nie chodzi o to, że Xeon powinien zastąpić procesory umieszczane w gnieździe
Slot I. Procesory Pentium II Xeon są zaprojektowane z myślą o średnich i dużych stacjach roboczych, podczas gdy umieszczane w gnieździe Slot l Pentium II są przeznaczone do komputerów firmowych i domowych, a także niewielkich serwerów i stacji roboczych (z jednym lub dworna procesorami). Pierwsza, przeznaczona do komputerów przenośnych wersja Pentium 11 pojawiła się na rynku w pierwszej połowie 1998 roku. Dzięki zastosowaniu energooszczędnych roz-wią/.ań budowy, procesor ten zużywa mniej więcej tyle samo energii, co Pentium MMX. Wersje pracujące z częstotliwością 300 MHz i wyższymi mają się ukazać pod koniec 1998 roku.
Procesory pseudoszóstej generacji Istnieje cala ktasa procesorów posiadających wiele cech charakterystycznych (Ha szóstej generacji, ale przeznaczonych do komputerów generacji piątej. Procesory te nie są w pełni szóstej generacji, ponieważ nie mają architektury DIB, która jest jednym z jej kluczowych etementów. Nieposiadanie architektury DIB jest uwarunkowane koniecznością zachowania kompatybilności z procesorem Pentium. Ponieważ są one zaprojektowane przede wszystkim z myślą o stworzeniu atternatywy do procesorów Pentium, umieszcza się je w tych samych co Pentium płytach głównych, przez co dotyczą ich wszystkie charakterystyczne dla procesorów piątej generacji ograniczenia wydajności pamięci podręcznej i systemowej. Nexgen Nx586 Nexgen został założony przez Vinoda Dahma, który wcześniej pracował w Intełu i był jednym z projektantów oryginalnego procesora Pentium. W swojej firmie zaprojektował procesor Nx586, który funkcjonałnie niczym się nie różnił od procesora Pentium, ale miał inne, niekompatybilne wyprowadzenia końcówek. Z tego powodu procesory Nx586 były zawsze sprzedawane wraz z płytami głównymi. Nexgen nie produkował zaprojektowanych przez siebie układów ani płyt głównych, zatrudnił w tym celu firmę IBM Microelectronics. Później Nexgen został kupiony przez AMD i z połączonych projektów procesorów Nx586 oraz AMD K5 powstał wydajniejszy AMD K6.Nx5S6 posiadał wszystkie standardowe cechy procesorów piątej generacji, takie jak dwupotokowe, superskalarne wykonywanie poleceń oraz wydajną, integralną pamięć podręczną LI, podzieloną na osobne pamięci podręczne dla danych i dla kodu. Przewagą N\586 nad procesorem Pentium było posiadanie większych, ł6-kilobajtowych pamięci podręcznych dla da'nych i dla kodu (łącznie 32 kB, podczas gdy procesory Pentium posiadały łącznie tylko 16 kB). Nx586 zawierał również charakterystyczny do procesorów szóstej generacji mechanizm predykcji rozgałęzień (Branch Prediction), który przyśpiesza działanie programu dzięki przewidywaniu jego przebiegu w kolejnych rozgałęzieniach.
Procesor Nx586 posiadał jądro RISC (Reduced Instruction Set Computer). Wszystkie polecenia x86 były dynamicznie tłumaczone przez jednostkę translacyjną na instrukcje RISC86. Instrukcje RISC86 zostały specjalnie zaprojektowane do bezpośredniej obsługi architektury x86 podczas wykonywania bardziej'efektywnych operacji RISC. Te możliwości posiadają zazwyczaj tylko procesory klasy P6. Procesory Nexgen przestały być rozwijane po wykupieniu firmy przez AMD, a z połączonych projektów Nx586 i AMD K5 powstał wydajniejszy AMD K6. AMD K6 Procesor AMD K6 jest bardzo wydajnym procesorem pseudoszóstej generacji, instalowanym w płytach głównych procesorów Pentium. Dzięki unikatowej, hybrydowej architekturze, osiąga wydajność większą od procesorów Pentium, choć mniejszą o wydajności osiąganej przez Pentium H. Ponieważ jest instalowany w gnieździe Socket 7, dotycz;} s;n wszystkie wynikające z architektury P5 ograniczenia wydajności pamięci podręcznej i systemowej, nie może być więc postrzegany jako procesor w pełni szóstej generacji. Procesor ten jest jednak bardzo dobrą alternatywą procesorów Pentium Intela na tynku taniego i średniej klasy sprzętu. Procesor K6 zawiera pełną, bardzo wydajną imp!ementację instrukcji MMX umożliwiających zwiększenie wydajności aplikacji muttimedialnych. AMD zaprojektował swój procesor tak, by można było go umieszczać w tanich płytach głównych zbudowanych w oparciu o architekturę Socket 7. Dzięki temu producenci komputerów mogli pr/yspics/yć czas wydania systemów z możliwością łatwego uaktualnienia w przyszłości. Zaprojektowane przez AMD procesory początkowo były produkowane w pięciowar-stwowej technologii 0,35 mikrona. W celu zmniejszenia rozmiaru matrycy i zwiększenia dzięki temu ilości produkcji, jak również zmniejszenia poboru energii, nowsze wersje produkowane są w technologii 0,25 mikrona. Najważniejsze techniczne cechy procesora AMD K6 to: +
Architektura procesora wewnętrznie szóstej generacji, przy zewnętrznym interfejsie generacji piątej
+ Jądro RISC. ws/.ystkie instrukcje x86 tłumaczone na polecenia R!SC + Siedem superskatarnych. równoległych jednostek wykonywania + Dynamiczne wykonywanie programów + Mechanizm predykcji rozgałęzień (Branch prediction) + Mechanizm wykonywania z wyprzedzeniem (Speculative execution) t Duża, 64-kitobajtowa pamięć podręczna LI (w tym 32 kB pamięci dla instrukcji oraz 32 kH d\\upo!tu\\ci pamięci /. opóźnionym zapisem dla danych). + Whudnwana jednostka zmiennoprzecinkowa (FPU) + Obsługa poleceń MMX+ Tryb zarządzania systemem (SMM) + Dostosowany do gniazda Socket 7, zamknięty w obudowie CPGA (Ceramic Pin Grid Array) + Produkowany w pięciowarstwowej technologii 0,35 i 0,25 mikrona.
Architektura AMD K6 jest w pełni kompatybilna z kodem maszynowym x86, co oznacza, że na procesorze tym będą działać wszystkie programy pisane z myślą o procesorach Intcla, łącznie z oprogramowaniem wykorzystującym rozkazy MMX. AMD wyposażył procesory K6 w 64 kB pamięci podręcznej LI (czyli dwa razy więcej niż w procesorach Pcntium H), dzięki czemu zminimalizował efekty jej mniejszej wydajności. Właśnie to, nawni / dynamic/n) m wykonywaniem poleceń, umożliwiło procesorom K6 wyprzedzenie procesorów Pcntium i zbliżenie się wydajnością do pracujących z tą samą częstotliwością procc.soruw Pcntium II. Procesory AMD K5 i AMD K6 są w pełni kompatybilne z architekturą Socket 7. Może się jednak okazać, że konieczne są pewne modyfikacje w celu ustawienia odpowiedniego napięcia /.asitania i wersji BIOS-u. Płyta główna, zanim będzie mogła obsłużyć te procesory, musi spełnić specyficzne wymagania dotyczące napięcia zasilania. Pracujący z częstotliwością 166 i 200 MHz AMD K6 wymaga zasilania 2.9 V dla jądra, a 3,3 V dla l/O (Wejścia/Wyjścia). AMD K6-233 MHz pracuje z zasilaniem 3,2 V dla jądra, a 3,3 V dla l/O. Większość starszych płyt głównych z podwójnym obwodem zasilania procesora (split-voltage) oferuje tylko 2.8 V dla jądra i 3,3 V dla I/O. co może być powodem błędów w pracy tych procesorów. By mieć pewność, że procesory K6 hędu d/ia!ac poprawnie, musis/ posiadać płytę główną z regulatorem napięcia umożliwiającym u.-it,!\\n,-nie zasilania jądra procesora (Vcc2) napięciem 2,9 lub 3,2 V (233 MHz) oraz ustawienie napięcia zasilania równego 3,3 V dla I/O (Vcc3). Regutator napięcia musi dostarczyć procesorowi prąd 7,5 A (9,5 A dla wersji pracującej z częstotliwością 233 MHz). Podczas pracy z 200-megahercową wersją procesora, regulator napięcia musi utrzymać nominalne napięcie jądra z odchyleniem nie większym niż 145 mV (2,9 V +/- 145 mV). Podc/.as pracy z 233-megahercową wersją procesora, regulator napięcia musi utrzymać nominalne napięcie ja\tra z odchyleniem nie większym niż 100 mV (3,2 V +/- 100 mV).
Jeśli na płycie głównej znajduje się nie najtepszej jakości regulator napięcia, niezdolny do utrzymania odpowiednich napięć i prądów, procesor może pracować bardzo niesta-bitnie. Jeśli napięcie przekroczy maksymahią dopuszczalną według specyfikacji wartość, może dojść do trwałego uszkodzenia procesora. Warto również zauważyć, że AMD K6 może się szybko nagrzewać. Upewnij się, czy radiator jest mocno i prawidłowo przymocowany oraz czy między nim a procesorem znajduje się podkładka lub pasta przewodząca ciepło. Płyta główna musi posiadać BIOS rozpoznający i obsługujący procesory AMD K6. BlOS-y Awarda obsługują je od l marca 1997 roku. AMI wprowadził obsługę procesorów K6 w swoich BlOS-ach w wersji 3.31 i nowszych, Phoenix obsługuje AMD K6 od wersji 4.0 wydania 6.0 lub wydania 5.! z datą4/7/97. Ponieważ wszystkie te specyfikacje są dość skomplikowane, AMD umieścił na swojej witrynie internetowej tistę płyt głównych, których współpraca z jego procesorami została potwierdzona. Wszystkie znajdujące się na tej liście płyty główne w pełni poprawnie obsługiwały procesory AMD K6, więc jeśli nie możesz w inny sposób sprawdzić, czy płyta główna, którą /amier/.asz kupić, działa z procesorem K6, zatecane jest, byś kupił którąś z płyt wymienionych na tej liście. W tabeli 6.32 znajdują się ustawienia mnożnika, częstotliwości magistrali oraz napięcia procesorów K6. Jeśli nie jesteś pewien, jaką wersję procesora K6 posiadasz, możesz ją zidentyfikować dzięki naniesionym na nim oznaczeniom, tak jak zostało to pokazane na rysunku 6.29.
Częstotiiwość procesora
Mnożnik
Częstottiwość magistra!!
Napięcie zasilania
166 MHz
2,5x
66 MHz
2,9 V dta jądra/3,3 V dla I/O
200 MHz
3,0
66 MHz
2,9 V dla jądra/3,3 V dla i/0
233 M! l/
3,5
66 MHz
3, 2V dla jądra/3. 3 Vdla I/O
266 MU?.
4,0
66 MHz
2,2 V dla jądra/3,3 V dla ]/O
300 MHz
4,5
66 MHz
2,2 V dla jądra/3,3 V dla I/O
W starszych płytach głównych w celu ustawienia mnożnika na 3,5x należy ustawić zworki tak, jak przy mnożniku ł,5x. Mnożnik l,5x w starszych płytach głównych jest taki sam jak 3,5 w procesorach AMD K6 oraz nowszych procesorach Intela. udrożnieniu od Cyrtxa i niektórych innych konkurentów Intela, AMD jest nie tylko projektantem, ale i producentem. Po zaprojektowaniu, procesory AMD są wytwar/anc w jego własnych fabrykach. Procesor K6 posiada 8,8 miliona tranzystorów i jest wykonany w pięciowarstwowej technologii 0,35 mikrona. Rozmiar matrycy wynosi 12,7 mm na stronę !ub około 162 mm*. Podobnie jak Intel, AMD przechodzi na technologię 0,25 (lub mniej) mikrona. Dzięki temu zwiększy się ilość produkowanych przez niego procesorów; możliwe stanie się również osiągnięcie jeszcze większych zysków. AMD w ciągu ostatnich pięciu lat wyprodukował ponad 50 milionów kompatybilnych z systemem Windows procesorów. Cyrix MediaGX Cyrix MediaGX został zaprojektowany z myślą o najtańszych, kosztujących poniżej 3500 zł komputerach sklepowych. W procesorze MediaGX zostały zintegrowane układy odpowiedzialne za dźwięk, wyświetlanie grafiki oraz kontrolę pamięci. Dzięki zintegrowaniu tak wielu funkcji w jednym układzie, komputery zbudowane w oparciu o MediaGX są lańsze niż inne systemy o podobnych możliwościach. Ponieważ w procesorze MediaGX zintegrowano interfejs PCI połączony z dźwiękiem, grafiką oraz funkcjami kontroli pamięci, systemy oparte na nim nie muszą posiadać drogiej karty graficznej czy dźwiękowej. Na poziomie płyty głównej, MediaGX i towarzyszące mu układy zastępują procesor, układy North Bridge i South Bridge, układy sprawujące nadzór nad pamięcią oraz pamięć podręczną L2, znajdującą się u konkurencji na płytach głównych. Dzięki uproszczeniu architektury pecetów zbudowanych w oparciu o ten energooszczędny i nic wydzielający dużych ilości ciepła procesor, możliwe stało się tworzenie komputerów o mniejszych obudowach ze zmniejszonym zapotrzebowaniem na energię.
Procesor MediaGX nie jest zgodny ze standardem Socket 7. w rzeczywistości nie umieszcza się go nawet w podstawce -jest sprzedawany wraz z płytą główną. Z powodu wysokieno stopnia integracji układu MediaGX, płyty główne obsługujące ten procesor oraz towarzyszące im układy (Cx55IO) są zaprojektowane inaczej niż standardowe płyty główne procesorów Pentium. Wadą tego rozwiązania jest to, że systemy oparte na MediaGX są właściwie .jednorazowe" - większość elementów komputera nie może zostać uaktualniona. Jednak na rynku najtańszego osprzętu często nie ma to większego znaczenia. Jeśli możliwość rozbudowy komputera jest dla ciebie ważna, powinieneś poszukać czegoś innego. Z drugiej strony, jeśli jest ci potrzebny komputer tak tani, jak to tylko możliwe, MediaGX może okazać się najlepszym możliwym rozwiązaniem. Media GX jest w pełni kompatybilny z systemem Windows, można na nim uruchomić to samo oprogramowanie, co na odpowiadającym mu procesorze Pentium. Osiągana pr/.ez procesor Cyrixa wydajność jest porównywalna z wydajnością taktowanego tą samą częstotliwością procesora Pentium. Jedyną różnicą na korzyść MediaGX jest znacznie niższa cena uzyskania tej samej wydajności. Ponieważ procesor MediaGX jest przylutowa-ny do płyty głównej i wymaga do działania specjalizowanych układów, jest sprzedawany wyłącznie wraz z płytą główną. [śmieje również bardziej rozbudowana wersja procesora MediaGX, która zawiera instrukcje MMX, obsługuje sprzętowo standard MPEGt, jest zgodna z opisanym w definicji PC97 Microsoltu mechanizmem dostępu Plug-and-Play, posiada zintegrowany port gier oraz jest /godna /e standardem dźwięku AC97. Wzbogacona wersja procesora MediaGX obsługuje gry zarówno w środowisku DOS, jak i Windows, obsługuje również oprogramowanie wykorzystujące polecenia MMX. Systemy zawierające ten procesor będą również posiadały dwa uniwersalne porty szeregowe (USB), umożliwiające podłączenie korzystających / lego interfejsu urządzeń peryferyjnych, na przykład drukarek, skanerów, joysticków czy też kamer. Procesor MediaGX jest oferowany w wersjach pracujących z częstotliwością ł66 lub 180 MHz. Procesor MediaGX wzbogacony o rozkazy MMX pracuje z częstotliwością 200 MHz, szybsze wersje mają się ukazać pod koniec 1998 roku. Dużym sukcesem Cyrixa było podpisanie kontraktu na swoje procesory obsługujące MMX z firmą Compaq, która wykorzystuje je w produkowanych przez siebie komputerach przenośnych Presario 1220. Komputery posiadające ten procesor można również kupić u sprzedawców detalicznych. Cyrix/!BM 6x86 i 6x86MX Do rodziny procesorów Cyrix 6x86 należą nie produkowane już procesory 6x86 oraz nowsze 6x86MX. Podobnie jak AMD K5 i AMD K6, procesory te są umieszczane na płytach piątej generacji w gnieździe Socket 7, ale wewnętrznie posiadają wiele rozwiązań charakterystycznych dla procesorów szóstej generacji. Procesory Cyrix 6x86 oraz 6x86MX (wcześniej MU) zawierają dwie zoptymalizowane supcrpotokowe (ang. superpipetined) jednostki stałoprzecinkowe oraz zintegrowatt;) z procesorc!!! jednostkę /micnnoprzecinkową. Oba procesory posiadają charakterystyczne dla procesorów szóstej generacji mechanizmy dynamicznego wykonywania rozkazów. takie jak predykcja rozgałęzień (Branch Prediction) czy też wykonywanie z wyprzedzeniem (Speculative Execution). Potiieważ procesor 6x86MX/MH jest w pełni kompatybilny z technotogią MMX. będą / nim współpracować najnowsze gry i programy muttimedialne. Dzięki zastosowaniu rozszerzonej jednostki zarządzającej pamięcią, 64 kB wewnętrznej pamięci podręcznej oraz innych wydajnych rozwiązań architektury, procesor 6x86MX osiąga wydajność wyższą od procesorów konkurencji.
Najważniejsze cechy procesorów 6x86 to: Dwa potoki umożliwiające równoległe wykonywanie wielu instrukcji. Przewidywanie z dużą dokładnością sposobu, w jaki wykona stę program. Umożliwia ciągłe wykonywanie rozkazów w potokach. bez niepotrzebnych przestojów. Umożliwia szybszym instrukcjom opuszczenie potoku poza kolejnością, dzięki czemu bez zakłócania przebiegu programu skraca się czas przetwarzania danych. W procesorach 6x86, 16 kB połączonej, dwuportowej pamięci podręcznej uzupełnione jest o 256-bajtową, bardzo szybką, w pełni asocjatywną pamięć podręczną linii poleceń. Nowszy, ulepszony procesor 6x86MX posiada cztery razy więcej pamięci podręcznej -64 kB - co znacznie zwiększyło jego wydajność. 6x86M\ pustada również 57 poleceń MMX. przyśpieszających przetwarzanie danych w pętlach, c/csto występujących w programach komunikacyjnych i multimedialnych. Ws/.ystkie procesory 6x86 obsługują tryb zarządzania systemem SMM (System Management Modę). Tryb ten udostępnia przerwanie, które można wykorzystać w zar/.ąd/.aniu energią lub przy emulacji urządzeń peryferyjnych I/O (Wejścia/Wyjścia). Procesory 6x86 udostępniają również sprzętowy interfejs; przy jego pomocy mogą zostać przełączone w stan uśpienia, w którym pobierają niewielkie ilości energii. 6x86 jest kompatybilny z oprogramowaniem i wszystkimi popularnymi systemami operacyjnymi pisanymi z mysią o procesorach x86, łącznie z Windows 95/98, Windows 3. 1 1, Windows NT, OS/2, DOS-em oraz UN!X-em. Dodatkowo, kompatybilność procesorów 6x86 z systemem Windows została potwierdzona przez Microsoft. Podobnie jak procesory AMD, procesory 6x86 mają specyficzne wymagania w odniesieniu do ustawień mnożnika i częstotliwości magistrali płyt głównych. Cyrix umieścił tistę zalecanych płyt głównych na swojej witrynie internetowej, z którą powinieneś się skonsulhwać, jeśti zamierzasz zainstalować jeden z jego procesorów na swojej płycie głównej. Podczas instalacji tub konfigurowania systemu z procesorem 6x86, musisz ustawić odpowiednią wartość mnożnika i częstottiwości magistrali płyty głównej. Procesory Cyrixa są oznaczane zgodnie z. osiąganą wydajnością w porównaniu do procesorów Pcniium, co nie odpowiada prawdziwej częstotliwości taktowania procesora.
Prawidłowe i prawdziwe częstotliwości pracy procesorów 6x86 Cyrixa zostały wypisane w poniższej tabeli:
Procesor/ Wydajność porównaniu Pentium
w Częstotiiwość do magistrali
Mnożnik
Rzeczywista częstotliwość pracy
6xH6-PR120+
50 MHz
2x
100 MHz
6x86-PR133+
35 MHz
2x
IłOMHz
c\S(--PR[3()+
60 MHz
2x
120 MHz
t-\S(. PRI66+
60 MHz
2x
133 MHz
6x86-PR2()()+
73 MHz
2x
150 MHz
6x86MX-PRi66+
60 MHz
2,5x
150 MHz
(<\S6MX-PR200+
66 MHz
2,5x
166 MHz
6x86MX-PR233+
75 MHz
2,5x
188 MHz
6x86MX-PR233+
66 MHz
3.0x
200 MHz
6x86MX-PR266+
75 MHz
3.0x
225 MHz
(-\S()M.\-PR266+
66 MHz
3,5x
233 MHz
6\86MX-PR300+
75 MHz
3,5x
263 MHz
6x86MX-PR300+
66 MHz.
4,0x
266 MHz
Z powodu zastosowania systemu oznaczania procesorów zgodnie z ich osiągami względem Pentium, procesory 6x86 nie pracują z częstotliwością sugerowaną przez ich nazwę. Na przykład 6x86MX-PR300 pracuje z częstotliwością nie 300 MHz, lecz 263 tub 266 MHz, w zależności od ustawień mnożnika i częstottiwości magistrat!. Cyrix stwierdził, że procesor ten osiąga tę samą wydajność, co pracujący z częstottiwością 300 MHz procesor Pentium - i to właśnie jest powodem takiego, a nie innego oznaczenia. Według mnie. kor/ystniej dta Cyrixa byłoby, gdyby oznaczył swoje procesory zgodnie z ich t /cczywistą częstotliwością pracy, a następnie stwierdził, że działają szybciej od pracujących z tą samą częstottiwością procesorów Pentium. Aby poprawnie zainstalować procesor 6x86, musisz ustawić odpowiednią wartość zasilania. Odpowiednia wartość zasilania byta zazwyczaj nadrukowana na procesorze. W zależności od wersji, procesory 6x86 pracowały z napięciami 3,52 V (korzystając z ustawień VRE), 3,3 V (ustawienia VR) tub 2,8 V (MMX). Wersja MMX korzystała ze standar dowych ustawień: 2,8 V dla jądra i 3,3 V dla I/O (Wejścia/Wyjścia). Procesory siódmej generacji P7 (786) Co nas czeka po Pentium tt? Kotejny procesor nosi nazwę kodowąP7 lub Merced.
tntel ogłosił, że nowe, 64-bitowe procesory Merced wejdą na rynek w roku 2000; wersje próbne mają się pojawić już w )999 roku. Procesor Merced, który będzie pierwszym członkiem rodziny IA-64 (tntet Architecture 64-bit) tntela, ma być wyposażony w innowacyjne techniki zwiększające wydajność, jak na przykład orzekanie i spekulację. Merced Obecnie na rynku panują procesory szóstej generacji (P6); ich pierwszym przedstawicielem było wypuszczone na rynek w Hstopadzie 1995 r. Pentium Pro. ostatnimi /.as - najnowsze procesory Pentium H. Procesory Intela następnej generacji będą oczywiście nazywane P7. Pomimo iż projekt procesora Merced nada! jest dateki od ukończenia, Intel poczynił już du/c postępy, takie jak: + Zdefiniowanie wraz z Hewlett-Packard architektury zestawu 64-bitowych instrukcji + Zdefiniowanie podstawowego projektu mikroarchitektury. +
Uzyskanie funkcjonalnego modełu fizycznego rozkładu obwodów.
oraz
zdefiniowanie
wstępnego
+ Zdefiniowanie założeń mechanicznych i ciepłnych oraz uzyskanie potwierdzenia od producentów. + Zdefiniowanie specyfikacji i projektu chipsetu, a także innych ełementów systemu. + Duży postęp w pracach rozwojowych nad 64-bitowym kompilatorem oraz oprogramowaniem IA-64. +
P;ogramowa emulacja w czasie rzeczywistym, umożliwiająca przyśpieszenie prac rozwojowych nad oprogramowaniem zoptymalizowanym pod IA-64.
+ Systemy operacyjne pracujące w środowisku symulującym procesor Merced. + Wszystkie komponenty obsługujące procesor Merced, mające towarzyszyć planowanym na [999 rok próbom tego procesora, niezbędnym do testów oprogramowania i systemów. Spodziewane jest, że rodzina IA-64 Intela zwiększy możliwości architektury jego procesorów i będzie przeznaczona na rynek bardzo wydajnych serwerów i stacji roboczych. Już teraz wielu wiodących producentów stacji roboczych i serwerów, jak również wiodących producentów systemów operacyjnych publicznie zadeklarowało wspieranie procesora Merced i całej rodziny IA-64. Podobna deklaracja została również złożona przez dziesiątki zarówno wiodących, jak i niezależnych producentów oprogramowania. Podobnie, jak było przy wprowadzaniu poprzednich procesorów, P7 nie zastąpi procesorów P6 i P5, a przynajmniej nie zrobi tego od razu. P7 będzie miał całkowicie nową architekturę, co spowoduje, że na początku będzie bardzo drogi i będzie go można znaleźć tylko w najszybszych serwerach ptików oraz stacjach roboczych. Intel spodziewa się, że P7 stanie się podstawowym procesorem dopiero w roku 2004 i wówczas procesory P6 powstaną tylko w najtańszych systemach. Intel już zapowiedział, że w 2001 roku wprowadzi do sprzedaży jeszcze bardziej zaawansowane procesory P7, które będę znacząco szybsze od procesora Merced. łnteł i Hewlett-Packard zaczęłi wspólnie pracować nad procesorem P7 już w 1994 roku. Rozpoczęli współpracę od omawiania, jakie cechy będzie miał procesor Inteła następnej generacji. Choć nie wiemy dokładnie, jak będzie on zbudowany, Inte) zaczął powoli udostępniać pierwsze informacje, by przygotować
producentów na jego wydanie. W październiku 1997 roku, ponad trzy łata po pierwszym ujawnieniu swoich planów dotyczących wspólnej pracy nad nową architekturą mikroprocesora, Inteł i Hewlett-Packard oficjałnie ogłositi niektóre techniczne detałe P7. Procesory z architekturą P7 pojawią się w sklepach dopiero w roku 1999. Merced będzie pierwszym mikroprocesorem opartym na nowej, 64-bitowej specyfikacji IA-64 Inteła. Specyfikacja IA-64 to zupełnie inny projekt procesora, wykorzystujący pomysł nazwany VLIW (Very Long Instructions Word), mechanizmy przewidywania instrukcji (instruction prediction), eliminacji rozgałęzień (branch elimination), pobierania instrukcji z wyprzedzeniem (speculative loading) oraz inne zaawansowane techniki zwiększające równoległość wykonywania operacji kodu programu. W nowym układzie zostaną zastosowane ełe-menty zarówno architektury CISC, jak i RISC. Procesory Merced posiadają również nową architekturę, umożliwiającą wykonywanie w tej samej chwili wiełu równoległych instrukcji. Inteł nadał jej nazwę EPIC (Expłicitly Paratlet Instruction Computing). W procesorze P7, w jednym 128-bitowym słowie będą /akodowane trzy instrukcje, dzięki czemu każda z nich będzie miała niewiele więcej bitów niż używane obecnie instrukcje 32bitowe. Dodatkowe bity umożliwiają adresowanie większej iłości rejestrów i informują procesor, które instrukcje powinny zostać wykonane równoległe. Takie rozwiązanie pozwołiło na uproszczenie konstrukcji procesorów z wietoma równoległymi jednostkami wykonywania rozkazów i umożliwiło osiągnięcie wyższych częstotłiwości taktowania. Innymi słowy, poza wewnętrzną możtiwością wykonywania wiełu równotegłych poleceń, procesory P7 będą mogły być łączone ze sobą w równolegle przetwarzającym dane środowisku. Pomimo zaimptementowania w procesorach P7 wiełu nowych możliwości oraz zupełnie nowego zestawu 64-bitowych instrukcji, Inteł i HP obiecują, że procesory Merced będą w pełni kompatybilne wstecz z oprogramowaniem x86, a nawet z własnym oprogramowaniem PA-RISC firmy HP. P7 będzie łączył w sobie trzy różne rodzaje procesorów, dzięki czemu w tym samym momencie będzie mógł wykonywać zaawansowane, równolegle przetwarzające dane oprogramowanie IA64, oprogramowanie IA-32 systemu Windows oraz programy systemu HP-RISC UNIX. Merced będzie obsługiwał instrukcje 64-bitowe, nie tracąc możłiwości wykonywania starszych instrukcji 32-bitowych. Kompatybitność wstecz będzie bardzo ważnym czynnikiem przemawiającym na korzyść tego procesora. Programy będą mogły wykorzystać nowy zestaw 64-bitowych instrukcji dopiero po przekompilowaniu. Podobnie było w 1995 roku, gdy Inteł wprowadził pierwszy procesor 32-bitowy - 80386. Dzięki procesorowi 386, IBM i Misrosoft mogły stworzyć zaawansowany 32-bitowy system operacyjny. W cetu zachowania kompatybilności wstecz, procesor 386 i następujące po nim nada! potrafiły wykonywać instrukcje 16-bitowe. Zastosowane w procesorach 386 rozwiązania mogły zostać wykorzystane tytko w nowym oprogramowaniu. Oprogramowanie rozwija się jednak znacznie wolniej od sprzętu. Od chwili ukazania się na rynku procesora 386 do powstania Windows 95, który był pierwszym szeroko rozpowszechnionym, 32-bitowym systemem operacyjnym dla procesorów x86, minęło 10 lat. Intet twierdzi, że nic podobnego nie zdarzy się procesorowi P7: Microsoft już rozpoczął prace nad 64-bitową wersją Windows NT dta procesora Merced. Jednak minie jeszcze wiele lat, zanim twórcy oprogramowania całkowicie przerzucą się na aplikacje 64-bitowe. W wielu komputerach nadal będą zainstalowane 32bitowe procesory, a dzięki temu, że 32-bitowy tryb zgodności wstecz procesora P7 będzie realizowany nie programowo, lecz sprzętowo, starsze, 32-bitowe oprogramowanie będzie działało na nim bardzo dobrze. Procesor Merced będzie produkowany w technologii 0,18 mikrona, która jest o jedną generację nowsza od obecnie stosowanej technologii 0,25 mikrona. Dzięki zastosowaniu nowszej technologii, możliwe stanie się umieszczenie o wiele większej liczby tranzystorów na tej samej powierzchni. Przewiduje się, że Merced będzie posiadał od 10 do 12 milionów tranzystorów!
Intel ma nadzieje, że na początku sprzedaży P7 zdominuje dzięki architekturze IA64 rynek serwerów i stacji roboczych, wypierając z niego procesory Digital Alfa, Sun Sparc oraz PowePC Motoroti. Microsoft będzie sprzedawał przystosowaną do procesorów Merced wersję Windows NT, a Sun planuje wprowadzenie do sprzedaży wersji swojego systemu operacyjnego UNIX - Solaris - która również obsługiwałaby procesory P7. NRC poinformował, że ma zamiar tworzyć i sprzedawać systemy oparte na procesorach Merced, pracujące pod kontrolą systemu operacyjnego Solaris. Uaktuatnienie procesora Od czasu wprowadzenia 486, wymiana procesora na szybszy w większości komputerów stała się bardzo prosta. Procesory 486 i późniejsze umieszcza się w zaprojektowanych przez Intela uniwersalnych podstawkach. Dzięki temu, jeśli posiadasz płytę główną z podstawką Socket 5, możesz zainstalować na niej praktycznie wszystkie procesory 486; jeśli zaś na twojej płycie głównej znajduje się podstawka Socket 7, możesz w niej umieścić każdy procesor Pentium. Zawsze możesz zwiększyć wydajność systemu, instalując najszybszy obsługiwany przez płytę główną model procesora. Na podstawie wersji znajdującej się na płycie głównej podstawki procesora, można zazwyczaj dokładnie okreśtić możliwości rozbudowy komputera. W tabeli 6.33 zostały wypisane najszybsze procesory możliwe do umieszczenia w różnych typach podstawek. Jeśli posiadasz płytę główną z podstawką Socket 5, po zaopatrzeniu się w przejściówkę z umożliwiającym uzyskanie 2,8 V regulatorem napięcia, możesz zainstatować na niej procesor AMD K6 lub Pentium MMX 233 MHz. Jeśli na twojej płycie głównej znajduje się podstawka Socket 7, będziesz mógł w niej bezpośrednio, bez żadnych przejściówek, umieścić zasilane niższym napięciem procesory Pentium MMX lub AMD K6. Zamiast kupować osobno procesory i przejściówki, lepiej jest kupić cały, kompletny zestaw; zestawy takie sprzedają na przykład firmy Kingston i Evergreen. Tabeia 6.33. Typ podstawki
Najszybszy obsługiwany procesor
Socket i
5x86-)33 MHzzprzejściówkąna3.3 V
Socket 2
3x86-!33 MHz z przejściówkąna 3.3 V
Socket 3
3x86-] 33 MHz
Socket 4
Pentium OverDrive 133 MHz
Socket 5 V
Pentium MMX 233 MHz tub AMD K6, z przejściówką na 2,8
Socket 7
1'cmium MMX 233 MHz. AMD K6
Sock(.'t S
Pentium Pro OverDrive
Slot [
Pentium H 333 MHz (66-megahercowamagistra]a)
Stot t
Pentium H 450 MHz (]00-megaherco\va magistrata)
Stot 2
Pentium H Xeon 450 MHz (!00-megaherco\va magistrala)
Wymiana procesora może czasami podwoić wydajność komputera, na przykład jeśti zainstalujesz w miejsce Pentium 100 procesor Pentium MMX 233. Jeśłi jednak posiadasz już Pcntium 233, masz najszybszy procesor możtiwy do umieszczenia w tym gnieździe. W tym wypadku, jeśłi potrzebujesz wydajniejszego komputera, powinieneś wymienić całą płytę główną, co umożtiwi ci zainstalowanie szybszego procesora Pentium H. Jeśli w twoim komputerze nie zastosowano firmowych rozwiązań budowy i jest on zgodny ze standardem BabyAT tub ATX, według mnie łepszym rozwiązaniem od uaktualnie-nia procesora będzie jego wymiana wraz z płytą główną. Procesory i gniazda OverDrive Firma łnteł oświadczyła, że wszystkie jej procesory produkowane w przyszłości będą miały wersję OverDrive, umożłiwiającą późniejszą wymianę procesora na nowszy. Firma httet opracowała różne rodzaje gniazd procesorów, które nie tylko pasują do pierwotnych wersji procesorów znajdujących się w komputerze, tęcz także przyszłych procesorów OverDrive. Bardzo często procesor OverDrive nie jest niczym innym jak obecnym w komputerze procesorem, pracującym z podwyższoną częstottiwością. Pierwsze wersje OverDrive procesorów 486SX czy 486DX były po prostu wersjami tych procesorów pracującymi z dwa razy większą częstotłiwością; od tamtej pory firma !nte) opracowała również procesory OverDrive przekraczające tę poprzeczkę. Np. firma oferuje obecnie procesor Pentium OverDrive przeznaczony do współpracy z płytą 486, a także procesory Pen-tium-MMX współpracujące z płytą Pentium. Pojawiające się nowsze typy procesorów z reguły wymagają większego gniazda niż procesor, który zastępują, dodatkowe końcówki są zarezerwowane dła przyszłych procesorów. Firma tntet udostępniła rozkład końcówek oraz niektóre parametry zapowiadanych procesorów, tak więc producenci płyt głównych mogą opracować odpowiednie gniazdo. Wszystko, co musi zrobić końcowy użytkownik, to kupić nowy procesor i umieścić go w podstawce w miejscu starego. Aby jak najbardziej ten proces ułatwić, firma Intel wymaga obecnie, aby wszystkie gniazda procesorów były gniazdami typu ZIF. Instatacja procesora OverDrive Wie!e komputerów ma możliwość wymiany procesora na wersję OverDrive. Największym probłemem, przed jakim staje użytkownik chcąc dokonać takiej modyfikacji, jest zdobycie procesora odpowiedniego dla danego typu komputera. Obecnie dostępne są procesory 486 Pentium OverDrive, które mogą zastąpić procesor 486SX ałbo 486DX. Niektóre modele Pentium mogą zostać zastąpione szybszymi procesorami Pentium czy Pentium-MMX OverDrive. Niestety, firma Intel nie oferuje już procesorów pasujących do gniazd 168-końcówkowych. W poniższej tabeli zebrano informacje o procesorach OverDrive, które znaleźć można aktualnie w ofercie firmy Intel: Oznaczenie procesora Zastępuje procesor Typ gniazda 486 Pentium 486SX/DX/SX2/D Socket 2 lub OverDrive X2 Pentium 60/66 3 Socket 4 60/66 Pentium Pentium 75/90/100 Socket 3/7 OverDrive Pentium OverDrive MMX
Rodzaj chłodzenia Wentylator Wentylator Wentylator
Wymiana procesora na modet wymagający jednego z gniazd Socket 2-Socket 7 jest znacznie ułatwiona, ponieważ są to gniazda typu ZIF, które nie wymagają stosowania narzędzi przy wkładaniu procesora do gniazda. Najczęściej użytkownik nie musi się troszczyć o właściwe ustawienie zworek, ponieważ wyręczają go w tym specjalne końcówki konfiguracyjne znajdujące się na procesorze i odpowiadające im otwory w gnieździe. Czasami może jednak być konieczne ustawienie niektórych zworek konfiguracyjnych na płycie głównej. Probtemy z kompatybitnością procesorów OverDrive W większości komputerów wykonanych w oparciu o procesory 486SX czy 486DX można zainstalować procesor OverDrive, istnieją jednak pewne wyjątki. Są cztery przyczyny, dla których wymiana procesora na model OverDrive może być trudna, a nawet niemożliwa: + Procedury BIOS-u wykorzystują pętle czasowe zależne od typu procesora + W obudowie komputera brakuje miejsca na wentylator procesora OverDrive (dotyczy to procesorów 25 MHz i szybszych) + Niedostateczne chłodzenie procesora + Procesor 486 jest wlutowany w płytę główną, a nie wkładany do gniazda Stosunkowo rzadko można spotkać komputery, które teoretycznie powinny umożliwiać wymianę procesora na nowszy, jednak w praktyce na to nie pozwalają. Jedną z przyczyn jest ROM BIOS komputera. Niektóre komputery 486 mają BIOS, w którym realizacja operacji sprzętowych odbywa się z wykorzystaniem pętli czasowych, których działanie opiera się na określonym czasie wykonywania przez procesor pewnych instrukcji. Kiedy włożony do gniazda nowy procesor pracuje dwa razy szybciej od poprzedniego, to czas wykonania pętli staje się zbyt krótki, co może powodować nieprawidłowe działanie komputera lub nawet uszkodzenie sprzętu. Na szczęście problem ten można zazwyczaj rozwiązać poprzez wymianę BIOS-u na wersję obsługującą procesor OverDrive. Inny problem jest związany z brakiem wolnej przestrzeni w obudowie komputera. Wszystkie procesory OverDrive są wyposażone w wentylator, który jest przyklejony a!-bo przymocowany do obudowy układu. Wentylator ten zajmuje dodatkowe 0,25-1,2 eata pr/estrzeni powyżej obudowy procesora i może kolidować z innymi podzespołami komputera. /\\ las/c/a w mniejszych obudowach typu desktop i komputerach przenośnych. Rozwiązaniem probtcmu może być tylko wymiana obudowy. Czasami można przełożyć karty rozszerzające do innych gniazd, zmienić położenie napędu dysku tub nawet przesunąć samą płytę główną, aby wygospodarować trochę wolnej przestrzeni. W niektórych przypadkach nie da się uniknąć wzajemnej kolizji różnych podzespołów, jedynym wyjściem pozostaje wtedy praca procesora bez wentylatora. Rzecz jasna, zdjęcie przyklejonego wentylatora w najlepszym razie spowoduje utratę gwarancji firmy intel. a w najgorszym - zniszczenie układu, a nawet płyty głównej poprzez przegrzanie. Nie /alccam więc takiego postępowania. Układy OverDrive mogą wydzielać dwa razy więcej ciepła niż procesor, który zastępują. Nawet jeżeli procesor OverDrive ma wbudowany wentylator, to i tak w niektórycll komputerach nie zapewni to wystarczającego przepływu powietrza i chłodzenia procesora OverDrivc, tak aby jego temperatura pozostawała w bezpiecznym zakresie. Najczęściej problemy z chłodzeniem zdarzają się w mniejszych komputerach typu desktop i w komputerach pi/cnośnych. Niestety, to, czy w komputerze wystąpiły probiemy z nadmiarem ciepła, mogą wykazać tylko odpowiednie testy. Dlatego firma Intel rozpoczęła intensywne prace nad systemem oznaczania komputerów współpracujących poprawnie z procesorami OverDrive. Ostatnim powodem niemożności wymiany procesora jest przylutowanie w niektórych komputerach 486SX i DX procesora na stałe do płyty głównej zamiast
umieszczenia go w gnieździe. Postępowanie takie jest podyktowane obniżeniem kosztów - wyprodukowanie płyty pozbawionej gniazda na procesor jest tańsze. Procesory są najczęściej przylutowywane do płyty, ponieważ pozwala to na wygospodarowanie dodatkowej przestrzeni. Np. komputer przenośny IBM P75 jest wyposażony w kartę z procesorem wielkości karty kredytowej, umieszczaną w gnieździe płyty głównej. W celu zapewnienia wolnej przestrzeni pomiędzy procesorem a wentylatorem, karta z przylutowanym do niej procesorem umieszczona jest w pobliżu gniazd rozszerzających. Uniemożliwiło to jednak praktycznie wymianę procesora na model OverDirve, chyba że firma IBM zdecyduje się zaoferować własną kartę z procesorem OverDrive. Aby umożliwić jednoznaczne ustalenie tego, czy w danym komputerze można bez problemów wymienić procesor na model OverDrive. firma Intel opracowała wyczerpującą listę takich komputerów. Aby ustalić, czy konkretny model komputera dopuszcza stosowanie procesora OverDrive, należy skontaktować się z firmą Intel za pośrednictwem systemu FAXBack (dotyczy USA) i zwrócić się o dokument z informacją na temat kompatybilności procesorów OverDrive z konkretnym typem komputera. W dokumencie tym są wymienione komputery, które pomyśtnie przeszły test kompatybilności /. procesorami OverDrive, a także podane są informacje o ewentualnych zmianach. inkich należy dokonać w komputerze (np. aktualizacja ROM BIOS czy nowszy program konfiguracyjny komputera), aby wymiana procesora była możliwa. Jeżeli na liście nie ma Twojego komputera, oznacza to brak gwarancji na jego współpracę z procesorem OverDrive. Firma Intel zaleca wymianę procesora na model OverDrive jedynie w komputerach wymienionych na liście. Lista ta zawiera również informacje o komputerach, które będą wymagały wymiany pamięci ROM, zmiany ustawień zworek czy dyskietki z nowym programem konfiguracyjnym.
Testy wydajności procesora l ud/ic uwielbiają wiedzieć, jak szybki (lub wolny) jest ich komputer. Zawsze byliśmy zainteresowani szybkością; taka jest natura człowieka. Istnieje wie!e programów pomagających określić różne aspekty wydajności procesora i/lub systemu. Pomimo iż nie można dokładnie opisać wydajności procesora, czy też komputera, za pomocą tylko jednego, ogohicgo wskaźnika, testy wydajności mogą być pomocne przy porównywaniu rożnych komponentów i systemów. W każdym razie jedynym dokładnym sposobem zmierzenia wydajności komputera jest przetestowanie go za pomocą oprogramowania, które wykorzystujesz na co dzień. Podczas gdy wydaje ci się, że testujesz tylko jedno, określone urządzenie, na wyniki testów wpływają również inne elementy systemu. Dlatego porównywanie systemów na przykład 0 różnych procesorach nie ma sensu, jeśli testowane komputery nie mają tyle samo pamicci, tych samych twardych dysków, tej samej karty graficznej itd. Wszystkie te i inne urządzenia bcdą wpływać na wyniki testów. Istnieją dwa rodzaje testów wydajności: testy urządzeń oraz testy systemu. Jak sama nazwa wskazuje, testy urządzeń mierzą wydajność określonego urządzenia komputera, na przykład twardego dysku, procesora, CD-ROM-u lub karty graficznej. Testy systemu mict/ą natomiast wydajność całego komputera, uruchamiając zazwyczaj kiika aplikacji 1
wykonując na nich często wywoływane operacje.
Testy wydajności są tylko jednym z wielu źródeł informacji, z których możesz sł
stać podczas uaktualniania lub kupowania komputera. Najlepszym możliwym testem komputera jest uruchomienie i przyjrzenie się działaniu aplikacji, z których zamierzasz korzystać na co dzień. Istnieje wiele firm specjalizujących się w oprogramowaniu testującym wydajność urządzeń i komputera. W poniższej tabeli zostały wypisane nazwy producentów i programów testujących wydajność.
Chipsety Z pojęciami procesorów bardzo ścisłe związane są obsługujące je układy zewnętrzne znajdujące się na płycie głównej - chipsety. Gdy !BM projektował pierwszą płytę główną, aby ukończyć jej budowę, musiał korzystać z wietu układów. Poza procesorem, było jeszcze wiełe innych elementów wymaganych do skompletowania systemu. Wśród innych elementów był generator cykiu podstawowego, kontroler magistral), /cgar systemowy, kontrolery przerwań i DMA, /.egar i pamięć CMOS oraz kontroler klawiatury. W projekcie płyty głównej wykorzystano również wiete innych układów logicznych, takich jak na przykład procesor, koprocesor (jednostka /micnnoprzecinkowa) czy pamięć. W tabeli 6.34 zostały wypisane wszystkie podstawowe układy wykorzystywane w oryginalnych płytach PC/XT i AT. Tabeta 6.34. Funkcja układu Wersja w PC/XT Wersja w AT Procesor
8088
S0286
Kuisruccsor jednostka /miennoprzecinkowa)
8087 80287
Generator cyklu podstawowego
8284
82284
Kontroler magistral)
8288
82288
Programowalny generator interwałów czasowych
8253 8254
Nadr/cdny kontroier przerwań
8259
8259
Podrzędny kontroler przerwań Kontroler DMA (bity 0-7)
8259 8237
8237
Kontroler DMA (bity 8-15)
8237
Zegar/pamięć CMOS
MC146818
Kontroler klawiatury
8255
8042
Wszystkie te elementy, /.a wyjątkiem produkowanego przez Motoroię układu zegarowego, były tworzone przez Intel lub Hcencjonowanych przez niego producentów. Aby wyprodukować komputer będący klonem łub kopią komputera IBM, musisz posiadać wszystkie te układy oraz około 100 innych. Zastosowanie tak wielu odrębnych układów nie pozwalało na obniżenie ceny płyty głównej i pozostawiało niewiełe miejsca na zintegrowanie na płycie innych funkcji. W 1986 r. firma o nazwie Chips and Technologies wprowadziła na rynek rewolucyjny układ u tia/wie 82C206, który stanowił główny element chipsetu pierwszej płyty głównej PC. Był to pojedynczy układ, w którym zintegrowano wszystkie funkcje układów płyty głównej komputerów kompatybilnych z AT. Układ ten spełniał funkcje generatora cyktu podstawowego 82284, kontrolera magistra!) 82288, programowanego generatora interwałów czasowych 8253, obu kontrolerów przerwań 8259, obu kontrolerów DMA 8237, a nawet układu
CMOS/zegara MC146818. Od tego momentu, niemal wszystkie elementy płyty głównej, nie licząc procesora, mogły zostać zastąpione pojedynczym układem. Możliwości 82C206 rozszerzały cztery dodafkowe układy, działające jako bufory oraz kontrolery pamięci, dzięki czemu właściwie wszystkie elementy płyty głównej zostały sprowadzone do tych pięciu układów. Ten pierwszy chipset został nazwany pr/e/ Chips and Technologies chipsetem CS8220. Nie trzeba chyba nadmieniać, że chipset ten był przełomem w wytwarzaniu płyt głównych. Dzięki niemu nie tylko znacząco /.malały koszty produkcji płyt głównych, ale i uprościł się proces ich projektowania, a d/ieki mniejszej łiczbie elementów na płycie głównej stało się możłiwe integrowanie w niej innych układów, uprzednio występujących tylko w postaci kart rozszerzeń. Później cztery układy towarzyszące 82C206 zostały zastąpione nowym zestawem trzech układów i cały zestaw został nazwany chipsetem NEAT (New Enhanced AT) CS822I. Następcą chipsetu NEAT CS8221 był chipset SCAT (Single Chip AT), w którym wszystkie układy zostały zintegrowane w jednej kości. Idea tworzenia chipsetów została natychmiast skopiowana przez innych producentów układów cłektronicznych. W rynek ten zaangażowały się firmy takie jak Acer, Erso, Opti, Suntac, Symphony, UMC, oraz VLSI. Nieszczęśliwie dla wielu z nich, rynek chipsetów by) bardzo zmienny, przez co po niedługim czasie przestały odgrywać na nim większą rolę. W 1993 r. firma VLSI stała się najpotężniejszą siłą na rynku chipsetów. Rok później, podobnie jak wszystkie inne firmy, walczyła o przetrwanie. Było to spowodowane wejściem na scenę nowego producenta chipsetów, który w ciągu roku całkowicie zdominował cały rynek. Tą firmą by! łnte), który od 1994 r. właściwie niepodziełnie panuje na rynku chipsetów. Poza lutetem, na rynku chipsetów pozostało niewiełe firm, a te, które pozostały, zostały przez niego wyparte do sektora tańszego osprzętu. Obecnie firmami tymi są przede wszystkim ALI (Acer Laboratories, Inc.), VIA Technologies oraz SiS (Silicon integrated Systems). Co ciekawe, firma Chips and Technologies przetrwała dzięki zmianie rodzaju wytwarzanych układów na układy kart graficznych i znalazła dla siebie niszę na rynku chipsetów kart graficznych komputerów przenośnych. Od 1998 r. firma Chips and Technologies jest częścią Intela, który zakupił ją chcąc wejść na rynek chipsetów kart graficznych. Chipsety inteia Nie można mówić o aktualnie produkowanych chipsetach nie mówiąc przede wszystkim o Intelu. Intel obecnie posiada kontrolę nad 90% całego rynku chipsetów i praktycznic nad całym rynkiem chipsetów bardziej zaawansowanych systemów z Pentium II. Co ciekawe, taki rozwój sytuacji prawdopodobnie zawdzięczamy firmie Compaq, dzięki której Intel zainteresował się tym rynkiem. Wszystko zaczęło się wraz z wprowadzeniem przez Compaq zaprojektowanej przez niego w 1989 r. magistrali EISA. Compaq udostępniał magistralę EISA innym producentom, usiłując doprowadzić do tego, by stała się standardem fabrycznym. Równocześnie jednak nie udostępniał innym firmom produkowanego przez siebie chipsetu, wymaganego do osadzenia EISA na płytach L'ts'\\nych. Tu właśnie wkroczył Intel, który zdecydował się dostarczać firmom chcącym tworzyć płyty EiSA zestaw układów niezbędnych do osadzenia magistrali EISA na płycie głównej. Standard EISA poza rynkiem serwerów nie odniósł większego sukcesu, ale Intel poznał już rynek chipsetów i nie chciał o tym zapomnieć. Po wypuszczeniu na rynek procesorów 486, Intel zaczął się niecierpliwić tym, że musi czekać, aż inne firmy wyprodukują odpowiedni chipset, gdyż opóźniało to wejście na rynek płyt głównych obsługujących nowe procesory. Ponieważ Inte) nie mógł sprzedawać swoich procesorów w dużej ilości, zanim powstały obsługujące je płyty główne, postanowił, że równolegle /. nowymi procesorami będzie wypuszczał również gotowe, obsługujące je chipsety, co powmno znacząco zmniejszyć czas potrzebny na zaprojektowanie i produkcję płyt głównych. Dzięki temu, w 1993 roku, gdy na rynek zostały wprowadzone procesory Pentium, Intet oferował już pierwszy, obsługujący je chipset płyt głównych. Dzięki temn, /annast (jak do tej pory) niemat całego roku, mijało tylko kilka miesięcy od ukazania się procesorów do powstania obsługujących je płyt głównych.
Od tego czasu Intel rozwijał się na rynku chipsetów, zawsze wprowadzając nowy chipset wraz z nowym modelem procesorów. Odniesiony sukces w projektowaniu chipsetów skłonił go do wykonania następnego ruchu - tworzenia kompletnych płyt głównych wykorzystujących jego własne chipsety i procesory. Obecnie, gdy Intel wprowadza na rynek nowy procesor, wprowadza również równolegte obsługujący go chipset, a nawet k ale płyty główne. Dzięki temu został wyełiminowany, często występujący w początkowym etapie rozwoju przemysłu informatycznego, czas oczekiwania pomiędzy wprowadzeniem nowych procesorów a powstaniem płyt głównych i komputerów, które potrafią je obsłużyć. Obecnie ten czas oczekiwania został właściwie całkowicie wyełiminowany. D!a mnie czymś niezwykłym jest to, że w dniu, w którym zostają wypuszczone na rynek pierwsze procesory Pentium H, jest już gotowy nie tytko obsługujący je chipset, ałe nawet całe płyty główne. Dzięki temu, tego samego dnia mogę zadzwonić do Gateway lub Delia i zamówić kompletny komputer Inteta, posiadający jego nowy procesor Pentium II. chipset oraz płytę główną. Nie wywołuje to szczególnego zachwytu u firm takich jak Compaq (który nadal woli produkować i stosować własne płyty główne, niż kupować je od kogoś innego). Od pojawienia się procesorów Pentium, następnie Pentium Pro, a obecnie Pentium H, w ponad 90% sprzedawanych komputerów montowane sanie tylko procesory Intela, ale i płyty główne zbudowane w oparciu o jego chipsety. Podczas prowadzonych przeze mnie kursów, często pytam, ile osób posiada komputery w większości wyprodukowane przez Intela. Oczywiście Intel nie sprzedaje i nie produkuje komputerów PC pod swoją nazwą, więc nikt nie podejrzewa, że posiada markowy komputer Intela. Ale jak już mówiłem, jeśli twoja płyta główna została wyprodukowana przez Inteła, to jeśli o mnie chodzi, posiadas/ markowy komputer Inteta. Czy to naprawdę ma znaczenie, jaka firma umieściła tę samą płytę główną Intela w obudowie różniącej się od innych przede wszystkim naklejonym na niej znakiem producenta? Oznaczenia chipsetów !nte!a Intel zaczął oznaczać swoje chipsety zgodnie z następującym wzorem: Oznaczenie chipsetu
Rodzina procesora
42()
P4 (486)
4.1()xx
P5 (Pentium)
l K)xx
P6 (Pentium Pro/Pentium I!)
450xx
P6 Server (Pentium Pro/Pentium II Xeon)
Wypisane powyżej numery są skrótem od numerów naniesionych bezpośrednio na same układy danego chipsetu. Na przykład, jednym z aktuatnie poputamych chipsetów Pentium H jest chipset 440BX, który w rzeczywistości składa się z dwóch komponentów o nazwie 82443BX North Bridge (północny most) oraz 8237IEX South Bridge (południowy most). Wykorzystany w płycie głównej chipset możesz bardzo szybko rozpoznać od-t.'/y[uj;)i.' o/.naczenia znajdujących się na niej większych układów scalonych. W większości chipsetów Inteta (a także jego konkurentów) zastosowano dwuelemento-wą architekturę zawierającą układy North Bridge i South Bridge. North Bridge jest główną częścią chipsetu i /awicra w sobie interfejs pomiędzy procesorem a płytą główną. Od elementów wchodzących w skład North Bridge zależy nazwa chipsetu; na przykład w chipsecie 44(JBX układ North Bridge jest oznaczony 82443BX.
North Bridgc /.awiera pamięć podręczną, kontrolery pamięci głównej ora/ interfejs pomiędzy szybką (3?, 50, 66 lub łOO MHz) magistralą procesora a 33megahercową magistratą PCI i 66-megahercową magistralą AGP. Na ostatnio produkowanych chip-setach Intel często okreśta North Bridge mianem PAC (PCI/AGP Controtler). North Bridge jest najważniejszym elementem płyty głównej i zarazem jedynym układem na płycie, który działa z prędkością równą magistrali procesora. W większości nowoczesnych chipsetów wykorzystany jest jednoukładowy North Bridge; w niektórych starszych układach zostało zastosowane rozwiązanie wykorzystujące trzy układy, tworzące pełny obwód North Bridge. South Bridge jest wolniejszym elementem chipsetu i zawsze ma postać jednego, osobnego układu. South Bridge jest w pewnym stopniu układem zamiennym; ponieważ różne chipsety North Bridge często były projektowane tak, by działały z tym samym układem South Bridge. Zastosowanie modułowej budowy chipsetów obniżyło koszty i ułatwiło produkcję płyt głównych. South Bridge jest podłączany do 33-megahercowej magistrat! PCł i zawiera interfejs do 8-megahercowej magistrali ISA. Zazwyczaj zawiera również podwójny interfejs kontrolera twardego dysku, interfejs USB (Universal Serial Bus), aawet spełnia funkcje zegara i pamięci CMOS. South Bridge zawiera również wszystkie komponenty tworzące magistratę ISA, łącznie z kontrolerami przerwań i DMA. Prześledźmy rozwój chipsetów Intela, poczynając od chipsetów przeznaczonych dla płyt głównych 486, a kończąc na najnowszych chipsetach dla procesorów Pentium II. Wczesne chipsety )nte!a d!a 386/486 Pierwszym wyprodukowanym przez Intel prawdziwym chipsetem płyt głównych był chipset 82350 przeznaczony dla procesorów 386DX i 486. Chipset ten nie odniósł wielkiego sukcesu, głównie z powodu małej popularności magistrali EISA oraz z powodu istnienia w tym okresie dużej konkurencji na rynku chipsetów. Rynek zmienił się bardzo szybko i Intel zrezygnował ze wspierania magistrali EISA, wprowadzając w zamian no\ve chipscty dta procesorów 486, które odniosły znacznie większy sukces. W tabeli 6.35 zostały wypisane chipsety Intela dla procesorów 486. Chipsety Intela dla procesorów 486 odniosły duży sukces i Intel zaczął rozwijać swój projekt dwudcmcntowej architektury chipsetów. Z tego powodu w projekcie wszystkich chipsetów Intela dla procesorów 486, Pentium, Pentium Pro oraz Pentium H wykorzystano dwa główne komponenty, powszechnie nazywane /Vo/v/; Rr/ć/gć* oraz Chipsety piątej generacji (K!asy P5 Pentium) Wraz z pojawieniem się w marcu 1993 r. procesorów Pentium, Intel wprowadził na rynek chipset 430LX - swój pierwszy chipset dla procesorów Pentium (o nazwie kodowej Mercu-ry). Był to pierwszy chipset dla Pentium na rynku - dzięki niemu Intel objął prowadzenie i zaczął oddalać się od innych producentów. Innym producentom zaprojektowanie i wprowadzenie na rynek chipsetów dla Pentium zabrało od kilku miesięcy do ponad roku. Od momentu wyprodukowania pierwszego chipsetu dla Pentium, Intel zdominował rynek chipsetów, nie pozwalając nikomu zagrozić jego pozycji, a nawet zbliżyć się do niej. W tabeli 6.36 umieszczono cechy chipsetów Intela dla procesorów Pentium intei 430LX (Mercury) 430LX zostat wprowadzony na rynek wraz z pierwszymi procesorami Pentium w marcu 1993 roku. Chipset ten był stosowany wyłącznie z procesorami Pentium w wersji 60 i 66 MHz. Procesory te były zasilane 5-vo)towo i umieszczano je w złączach Socket 7.
Patrz „Obudowy procesorów", str. 229 M Patrz „Pierwsza generacja procesorów Pentium", str. 288 W chipsecie 430LX zastosowano trzy układy tworzące strukturę North Bridge. Głównym układem był kontroler systemu 82434LX. zawierający interfejs pomiędzy procesorem a pamięcią, kontroler pamięci podręcznej oraz kontroler magistrat! PCł. W skład North Bridge wchodziła również para układów przyśpieszających interfejs magistrali PCł. którymi były identyczne kości 82433LX. Chipset 430LX miał następujące cechy: + Obsługa tylko jednego procesora + Obsługa do 5)2 kB pamięci podręcznej L2 + Obsługa do 192 MB standardowej pamięci DRAM
Specyfikacja PCI 2.1 dopuszcza współbieżne wykonywanie operacji na magistrali PCI. Chipset ten odszedł w niepamięć wraz z 5-vo!towymi, 60/66-megahercowymi procesorami Pentium.
Tabeła 6.36.
Chipset
430LX
430NX
430FX
Naz\\a kodo\\a
Mercury
Neptune
Triton
Dala \spm\\adzeuia na marzec rynek 1993 C/cstot!i\vość magistrali 66 MHz
marzec 1994
styczeń !995
66 MHz
66 MHz
Obslugi\sauc pioccsois
P60/66
P75+
P75+
SMP (d\\uproceso!o\\ość)
Nie
Tak
Nie
T\py pamięci
FPM
FPM
FPM/EDO
sttłść 1 t t
t';n/\ stość
Parzystość
Oba
maksymalna ilość pamięci
1 92 MB
312 MB
128 MB
Maks. ilość pamicci 192 M B bulbrowancj Typ pamicci podręcznej Asynchr. 1,2 Obsługa PCI 2.0
3I2MB
64 MB
Asynchr. 2.0
Asynchr./Pbur st 2.0
Obsługa A(iP
Nie
Nie
Nie
SIO
sto
PMX
Soutl) Biidgc
!ntei 430NX (Neptun) Wprowadzony na rynek w marcu 1994 roku, 430NX był pierwszym chipsetem zaprojektowanym dla nowych, 3,3-vo!towych procesorów Pentium drugiej generacji. W chipsecie zostało zastosowane gniazdo Socket 5 oraz przełącznik pomiędzy napięciem 3,3/3,5 V zarówno dla chipsetu, jak i procesora. 430NX był w stanie obsłużyć procesory pracujące z częstotliwością od 75 do 133 MHz. ale najczęściej wykorzystywano go w systemach pracujących z częstotliwościami od 75 do 100 MHz. W porównaniu z pierwszymi, 5-voltowymi procesorami Pentium i towarzyszącymi im chipsetami, zaletami tego chipsetu, poza zastosowaniem procesorów o niższym napięciu, była większa stabiłność, zwiększona szybkość, a także znacznie niniejsze rozgrzewanie się podczas pracy.
Patrz ,, Napięcia zasilania procesorów", str. 248 ^ Pan/ „Procesory Pentium drugiej generacji", str. 289 W chipsecie 430NX wykorzystano trójukładową architekturę North Bridgc. Podstawowym układem był 82433NX, zawierający kontroter pamięci podręcznej, kontrołer pamięci głównej (DRAM) oraz interfejs kontrolera magistrałi PCI. Przepływem danych poprzez magistratę PCI zarządzały dwa układy 82433NX nazywane a^cf/erafofwm /. Łącznie wszystkie trzy układy tworzyły architekturę North Bridge. W chipsecie 430NX funkcję South Bridge spełniał układ 82378ZB System I/O (SIO). Był on podłączony do magistra)! PC! i tworzył wolniejszą magistrałę ISA. W chipsecie 430NX wprowadzono następujące ułepszenia względem chipsetu Mercury (430LX): + Obsługa dwuprocesorowości ^ Obsługa do 5)2 MB pamięci głównej (zamiast )92 MB w chipsecie Mercury LX) 430NX szybko sta) się najpopularniejszym chipsetem w komputerach z procesorami o zegarach 75-100 MHz, dektasując wykorzystywany w starszych, 60/66-mega-hercowych systemach chipset 430LX. !nte! 430FX (Triton) Bardzo szybko, po ukazaniu się w styczniu 1995 r., chipset 430FX (Triton) stał się najpopularniejszym chipsetem na rynku. W chipsecie tym po raz pierwszy wprowadzono obsługę pamięci EDO (Extended Data Out), która w tym czasie również bardzo zyskała na popularności. Pamięci EDO były odrobinę szybsze i nie były droższe od wykorzystywanych do tego czasu standardowych pamięci FPM (Fast Page Modę). Niestety. zmiany w obsłudze pamięci przez chipset Triton nie ograniczały się tylko do dodania możliwości zainstalowania szybszej pamięci EDO - Triton był pierwszym chipsetcm procesorów Pentium nie umożliwiającym przeprowadzania kontroli parzystości pamięci. By) to poważny cios d)a niezawodności komputerów PC, choć w tym czasie prawie nikt nie zdawał sobie z tego sprawy. !nte! 430FX (Triton) Bardzo szybko, po ukazaniu się w styczniu 1995 r., chipset 430FX (Triton) stał się najpopularniejszym chipsetem na rynku. W chipsecie tym po raz pierwszy wprowadzono obsługę pamięci EDO (Extended Data Out), która w tym czasie również bardzo zyskała na popularności. Pamięci EDO były odrobinę szybsze i nie były droższe od wykorzystywanych do tego czasu standardowych pamięci FPM (Fast Page Modę). Niestety. zmiany w obsłudze pamięci przez chipset Triton nie ograniczały się tylko do dodania możliwości zainstalowania szybszej pamięci EDO - Triton był pierwszym chipsetcm procesorów Pentium nie umożliwiającym przeprowadzania kontroli parzystości pamięci. By) to poważny cios d)a niezawodności komputerów PC, choć w tym czasie prawie nikt nie zdawał sobie z tego sprawy. systemowej, interfejs procesora oraz kontroler magistrali PCI towarzyszący dwóm układom S234HFX, które zarządzały przepływem danych poprzez magistratę PCI. Funkcję South Bridgc wypełniał pierwszy układ PIIX (PCI ISA IDE Xcelerator) oznaczony symbotcm S237IFB. Układ ten działał nie tylko jako pomost między 33-megahercową magistrat;) PCI a wolniejszą, H-megahercową ISA. ale również po raz pierwszy udostępnia) podwójne kanały interfejsu IDE. Dzięki przeniesieniu interfejsu IDE z magistrali ISA do układu PIIX, został on właściwie bezpośrednio podłączony do magistrali PCI, co umożliwiło znaczne zwiększenie transferów Bus Master IDE. Dzięki temu stało się możliwe wdrożenie standardów ATA-2 oraz EIDE (Enhanced łDE), przyśpieszających transfer danych x twardego dysku.
Najważniejsze cechy chipsetu 430FX to: + Obsługa pamięci EDO + Obsługa szybszej pamięci podręcznej typu pipeline-burst + P! IX South Bridge z szybkim Bus Master łDE + Brak obsługi pamięci z kontrolą parzystości + Obsługa tytko jednego procesora + Obsługa tylko ł2H MB RAM, przy czym buforowane są tylko 64 MB Większość ludzi nie jest świadomych wagi ostatniego ograniczenia. Chipset 430FX potrafi buforować tylko 64 MB pamięci systemowej. Oznacza to, że jeśli w komputerze zainstalujesz więcej niż 64 MB pamięci, znacząco spadnie jego wydajność. W tym momencie większość ludzi stwierdzi, że nie jest to duży problem, ponieważ zazwyczaj nie korzystają z oprogramowania używającego więcej niż 64 MB RAM. Jest to jeszcze inne nieporozumienie, ponieważ Windows 95 i NT zapełnia pamięć od końca. Oznac/a to. że jeśli na przykład posiadasz 96 MB RAM (64 MB w pierwszym banku i 32 MB w drugim), praktycznie catr oprogramowanie, łącznie z systemem operacyjnym, zostanie umieszczone w niebuforowanym obszarze, powyżej 64 MB. Wzrost wydajności systemu zauważysz tylko wówczas, gdy będziesz korzystał z więcej niż 32 MB. Spróbuj wyłączyć w BlOS-ie pamięć podręczną L2, a zobaczysz, jak wolno bez niej działa twój komputer. Takiej właśnie wydajności możesz oczekiwać, jeśli zainstalujesz więcej niż 64 MB RAM w komputerze posiadającym chipset 430FX. Buforowanie tytko 64 MB RAM. połączone z brakiem kontroli parzystości lub kodu korekcji błędów ECC (error-correcting code) pamięci, sprawia, że nie polecam stosowania tego chipsetu. Na szczęście chipset ten stał się przestarzały po wprowadzeniu na rynek \\ieksz.e możliwości chipsetu 430HX. !nte! 430 HX (Triton !) /godtnc / planami łntcla. chipset Triton II 43UHX miał godnie zastąpić zaawansowany układ 430N\. Dodano do niego niektóre cechy szybszej obsługi pamięci z taniego chipsetu 430FX, takie jak obsługa pamięci EDO, oraz pamięć podręczną L2 (drugiego poziomutypu pipetine-burst. Powrócono obsługę dwuprocesorowości, wykrywającej błędy pamięci kontroh parzystości, dodano również obsługę kodu korekcji błędów ECC (error-corrccting codeł. klóra umożłiwia nie tylko wykrycie, ałe i przeprowadzanie ,,w locie" korekcji błędów pojedynczych bitów pamięci. Bardzo dobrą cechą ECC jest to, że nie wymaga stosowania specjalnych pamięci; do jego zastosowania w zupełności wystarczają standardowe pamięci / kontrolą parzystości typu pipetine-burst. Powrócono obsługę dwuprocesorowości, wykrywającej błędy pamięci kontroh parzystości, dodano również obsługę kodu korekcji błędów ECC (error-corrccting codeł. klóra umożłiwia nie tylko wykrycie, ałe i przeprowadzanie ,,w locie" korekcji błędów pojedynczych bitów pamięci. Bardzo dobrą cechą ECC jest to, że nie wymaga stosowania specjalnych pamięci; do jego zastosowania w zupełności wystarczają standardowe pamięci / kontrolą parzystości
typu pipetine-burst. Powrócono obsługę dwuprocesorowości, wykrywającej błędy pamięci kontroh parzystości, dodano również obsługę kodu korekcji błędów ECC (error-corrccting codeł. klóra umożłiwia nie tylko wykrycie, ałe i przeprowadzanie ,,w locie" korekcji błędów pojedynczych bitów pamięci. Bardzo dobrą cechą ECC jest to, że nie wymaga stosowania specjalnych pamięci; do jego zastosowania w zupełności wystarczają standardowe pamięci / kontrolą parzystości W porównaniu do chipsetu EX, w chipsecie HX wprowadzono następujące ulepszenia: + Obsługa pamięci z kontrolą parzystości i kodem korekcji błędów ECC + Obsługa dwuprocesorowości + Możliwości zainstalowania 512 MB pamięci systemowej, zamiast tylko 128 MB + Buforowanie pełnych 512 MB pamięci systemowej, zamiast tylko 64 MB (o tle jest zainstalowany opcjonalny, większy indeks pamięci podręcznej Tag RAM) + Zwiększona wydajność dzięki szybszemu taktowaniu pamięci i większym buforom l/O +
Zastosowanie specyfikacji PCI 2.1, wykonywanie operacji na magistra)! PCI
która
dopuszcza
współbieżne
+ Obsługa USB + Niezależne taktowanie dysków IDE/ATA W chipsecie 430HX poprawiono występujące w Tritonie problemy z buforowaniem pamięci. Triton H umożliwia buforowanie pełnych 512 MB pamięci, pod warunkiem zainstalowania odpowiednich rozmiarów indeksu pamięci podręcznej. Indeks jest niewielkim układem pamięci wykorzystywanym do przechowywania spisu danych znajdujących się w pamięci podręcznej. Większość systemów z chipsetem 430HX, sprzedawanych z niewielkim indeksem pamięci podręcznej, buforującym tylko 64 MB pamięci systemowej, można było później rozbudować o bardziej pojemny układ indeksu, umożliwiający buforowanie pełnych 512 MB. W Tritonie H rolę North Bridge spełniał tytko jeden układ. Był to zarazem jeden z pierwszych układów zamkniętych w obudowie nowego typu - BGA (Bali Grid Array). w której wyprowadzenia mają postać półkolistych kontaktów umieszczonych na spodniej płaszczyźnie układu scałonego. Technologia ta umożliwiała tworzenie mniejszych układów w porównaniu do uprzednio stosowanych obudów PQFP (Plastic Quad HIat Pack). Dzięki zastosowaniu tylko jednoukładowej architektury North Bridge, możliwe stało się tworzenie znacznie mniejszych płyt głównych. Rolę South Bridge spełniał uktad PHX3 (82371SB), umożiiwiający niezależne taktowanie podwójnych kanałów i DE. Oznacza to, że na jednym kanale mogłeś zainstalować dwa urządzenia o różnej prędkości i dta każdego z nich oddzielnie skonfigurować parametry transferu danych. Poprzednie układy PHX dostosowywały prędkości obu urządzeń do najmniejszej znanej prędkości wolniejszego urządzenia. PHX3 po raz pierwszy zawierał interfejs uniwersalnego portu szeregowego USB (Universal Serial Bus). W tym czasie nie było jednak jeszcze żadnych ut/;(d/cń dostosowanych do USB, standardu tego nie obsługiwał również żaden system operacyjny. Chipset 430HX obsługuje nowy standard PCI 2.1, który oferuje lepszą wydajność i do-pus/cza współbieżne wykonywanie operacji na magistrali PC. Wszystkie te cechy, w połączeniu z obsługą pamięci EDO oraz podręczną pamięcią pipelineburst sprawiały, że /astoMwanie tego chipsetu było najprawdopodobniej najlepszym rozwiązaniem dla wymagających użytkowników. Chipset ten oferował nie tylko doskonałą wydajność, ale i dzięki zastosowaniu kodu korekcji pamięci
ECC był bardzo stabilny i można było na nim polegać. Triton H był jedynym nowoczesnym chipsetem procesorów klasy Pentium oferującym obsługę kontroli parzystości pamięci i kodu korekcji błędów. Dzięki temu jest to chipset zalecany dla komputerów przechowujących ważne dane, takich jak serwery sieciowe, serwery baz danych, systemy bankowe i inne podobne. Oczywiście obecnie niektórzy polecają stosowanie jako serwera plików szybszych i niewiele droższych systemów z procesorem Pentium H. Ponieważ chipset Triton H, podobnie jak procesory Pentium, szybko się starzeje, jeśli potrzebujesz komputera do bardziej zaawansowanych zastosowań, powinieneś przyjrzeć się chipsetom procesorów Pentium H. intet 430VX (Triton Nt) Chipset 430VX nigdy nie miał oficjalnej nazwy kodowej, ale wielu ludzi pracujących w przemyśle komputerowym określało go nazwą Triton III. Chipset 43()VX został /aprojektowany z myślą o zastąpieniu taniego 430FX. 430VX nie był następcą oferującego większe możliwości Tritona II. Dlatego właśnie VX był lepszy od HX tylko pod kilkoma względami, a pod niemal wszystkimi innymi przypominał tani chipset 430FX. Najważniejsze cechy chipsetu 430VX to: + Obsługa 66 MHz pamięci synchronicznej SDRAM (synchronous DRAM) + Brak obsługi pamięci z kontrolą parzystości lub kodem korekcji błędów ECC + Obsługa tylko jednego procesora + Obsługa tylko 128 MB RAM + Buforowanie tylko 64 MB pamięci Pomimo iż obsługa pamięci SDRAM była dużym udogodnieniem, korzyści płynące z jej zastosowania były dość ograniczone. Jest to spowodowane tym, że przy dobrej pamięci podręcznej L2 (drugiego poziomu) pomyłki buforowania to około 5% wszystkich operacji zapisu i odczytu pamięci, co oznacza, że wydajność pamięci podręcznej jest tu ważniejsza od wydajności pamięci systemowej. Dtatego właśnie większość systemów na bazie 430HX jest szybsza od systemów wykorzystujących chipset 430VX, nawet jeśti VX może korzystać z szybszej pamięci SDRAM. Dodatkowo, ponieważ VX zosta) stworzony jako tani chipset dta sektora tanich komputerów, zazwyczaj nie insta-!owano w nim pamięci SDRAM. Podobnie jak 430FX, VX nie był w stanie buforować więcej niż 64 MB pamięci syste-nm\\ci. Gdy w )996 r. znacząco spadły ceny pamięci, a programy systemu Windows potrzebowały jej coraz więcej i więcej, timit ten stał się poważnym ograniczeniem. Chipset 430VX bardzo szybko stał się przestarzały po pojawieniu się na rynku chipsetu 430TX. !ntet 430TX Nigdy nie slys/atem, by chipset 430TX miał oficjainą nazwę kodową, niektórzy jednak upierają się, by okreśłać go nazwą Triton IV. 430TX był ostatnim chipsetem Intela dla procesorów Pentium. Został zaprojektowany w cetu zastąpienia nie tyłko wcześniejszych chipsetów komputerów stacjonarnych, a)e i chipsetu 430MX, przeznaczonego dta komputerów przenośnych. 430TX był pod kitkoma wzgłędami tepszy od 430VX, ałe niestety odziedziczył po starszych chipsetach FX i VX brak możtiwości buforowania więcej niż 64 MB pamięci sysk'mo\vcj i nada) nie obsługiwał pamięci z kontrolą parzystości tub kodem korekcji błędów ECC. 430TX nie miał zastąpić posiadającego większe możtiwości chipsetu 430HX, który nadał pozostawał naj)epszym chipsetem dta komputerów przechowujących \\aznc dane. Prawdopodobnie było to
spowodowane staraniami Inteta o to, aby rynek drogich, przechowujących ważne dane systemów przeniósł uwagę z procesorów Pen-tnmi na nowe procesory Pentium )). Najwa/incjs/e cechy chipsetu 430TX to: + Obsługa 66 MHz SDRAM + Ro/nnar buforowanej pamięci nada) ograniczony tytko do 64 MB + Obstuga transferów IDE Uttra-ATA, tub U)tra-DMA + Mniejsze zużycie energii z uwagi na możtiwość zastosowania chipsetu w komputerach przenośnych + Brak obsługi pamięci z kontrolą parzystości !ub kodem korekcji błędów ECC + Obstuga ty)ko jednego procesora
Ponieważ ro)a procesorów Pentium została ograniczona ty)ko do zastosowań domowych, fakt braku kontroli parzystości pamięci i kodu kontroti błędów ECC, jak również ogianic/enie buforowanej pamięci do 64 MB nie był większym probtemem na rynku, dta którego /ostał pr/c/nac/ony ten chipset. Nie powinieneś go wykorzystywać w komputerach firmowych, szczegótnie tych, które spełniają ważne zadanie tub na których przechowywane są ważne dane. Z tego powodu, jeśli poszukujesz naprawdę wydajnego chipsetu, który posiadałby zapewniającą większą stabilność pracy pamięć ECC oraz potrafiłby buforować więcej niż 64 MU pamięci, powinieneś zrezygnować z procesorów Pentium i przyjrzeć się procesorom 1'cntmm ]]. Tym bardziej zresztą, że Intel ostatnio zatrzymał produkcję procesorów Pentium we wszystkich swoich fabrykach i aktuahiie sprzedaje tylko to, co posiada w magazynach. Chipsety kiasy P5 Pentium producentów niezaieżnychV!A Techrtotogies VIA Technologies Inc. została założona w 1987 roku i stała się ważnym konstruktorem chipsetów płyt głównych komputerów PC. Dzięki kontaktom z wiodącymi producentami układów scalonych, takimi jak Toshiba i Taiwan Semiconductor Manufacturing (\nnpany, V] A stosuje najnowocześniejsze metody produkcji. Apo!!o VP-1 VTS2C580VP Apolto VP-ł jest czteroukiadowym chipsetem wypuszczonym na rynek w październiku 1995 roku i przeznaczonym dla starszych komputerów z gniazdami Socket 5 i Socket 7. Apollo VP-1 jest funkcjonalnym ekwiwalentem chipsetu 430VX hneła. VP-1 obsługuje pamięci SDRAM, EDO oraz Fast Page Modę, jak również pamięć podlec/n;) hpu pipeline-burst SRAM. W chipsecie VP-ł został /awarty 208-końcówkowy układ VT82C585VP, dwa tworzące architekturę North Bridge łOO-końcówkowe układy VT82C587\T era/ spełniający rolę South Bridge 208-końcówkowy układ VT82C586. Ws/ystkic te układy zostały umieszczone w obudowach PQFP (Plastic Quad Ftat Pack). Apoito VP2 Dwuukładowy chipset Apotlo VP2 ukazał się na rynku w maju 1996 roku. VP2 jest bardzo wydajnym chipsetem przeznaczonym dla procesorów korzystających z gniazda Socket 7, posiadającym wiełe cech swojego poprzednika, chipsetu VP-1. W chipsecie VP2 umożliwiono stosowanie pamięci z kodem korekcji błędów ECC (Error Correcting Code). .Apollo VP2 był również licencjonowany firmie AMD, która sprzedawała go jako chipset AMD 640. Płyty główne zbudowane w oparciu o Apollo VP2 obsługiwały procesory klasy P5, łącznie z procesorami Inte) Pentium i Pentium MMX, AMD K5 i K6 oraz Cyrix/ łBM 6x86 i 6x86MX (MM).
Chipset VP2 zawiera 328-końcówkowy, umieszczony w obudowie BGA (Bali Grid Ar-ray) układ North Bridge, który obsługuje do 2 MB pamięci podręcznej L2 i do 512 MB DRAM. Dodatkowe cechy poprawiające wydajność układu to szybki kontroler DRAM obsługujący w dowolnych zestawieniach pamięci SDRAM, EDO, BEDO oraz FPM, 32-i 64-bitowe transfery danych, adresowanie kotumn i wierszy, większy i wydajniejszy bufor ora/ ..inteligentny" kontroler PCI 2.!. umożliwiający dokonywanie współbieżnych operacji na magistrati PCI. W celu zwiększenia stabilności systemu i umożliwienia korzystania / chipsetu w serwerach, VP2/97 obsługuje pamięć z kodem korekcji błędów ECC i kontrolą parzystości. Zawarty w chipsecie Apotlo VP2, pełniący rotę kontrotera PCI-IDE układ South Bridge VIA VT82C586B, dzięki obsłudze technologii ACPI/OnNow, Ułtra DMA/33 oraz USB, spełnia wymogi specyfikacji fabrycznej PC 97 Microsoftu. ApoHo VPX VT82C580VPX ApoHo VPX jest czteroukładowym chipsetem przeznaczonym dla płyt z gniazdem Socket 7, wypuszczonym na rynek w grudniu 1996 roku. Apołlo VP4 jest odpowiednikiem chipsetu 430TX, ale posiada usprawnienia umożtiwiające mu osiągnięcie wydajności wyższej niż chipset Intela. VPX został zaprojektowany jako następca chipsetu VP-I i jest rozwinięciem tego chipsetu, umożtiwiającym obsługę nowszych procesorów AMD i Cyrix P5. W skład chipsetu ApoHo VPX wchodzą układy VT82C586VPX North Bridge ora/ VT82C586B South Bridge, Interfejs pamięci VT82C586VPX North Bridge zawiera również dwa 208-końcówkowe, umieszczone w obudowach PQPF, bulbry ramek. ApoHo VPX/97 zawiera układ kontrolera PCI-IDE South Bridge VIA VT82C586B, który spełnia wymogi specyfikacji fabrycznej PC 97 Microsoftu dzięki obsługiwaniu technologii ACPI/OnNow, Uftra DMA/33 oraz USB. VIA oferuje również nie spełniającą standardu PC 97 wersję chipsetu ApoHo VPX, w której zastosowano starszy układ VT82C586A South Bridge. Płyty główne oparte na chipsecie ApoHo VPX mogą obsługiwać procesory ktasy P5, łącznie z procesorami Intel Pentium i Pentium MMX, AMD K5 i K6 oraz Cyrix/IBM 6x86 i 6x86MX (MII). Aby umożliwić poprawną obsługę procesora Cyrix/IBM 200+, w chipsecie zastosowano asynchroniczną magistralę procesora pracującą z częstotliwościami 66 i 75 MHz. Apołlo VPX to uaktualniony chipset ApoHo VP-I z dodaną obsługą specyfikacji PCI 2.1, która umożłiwia wykonywanie współbieżnych operacji na szynie PCI. VPX obsługuje do 2 MB pamięci podręcznej L2 i do 512 MB DRAM. Apo!!o VP3 Apotlo VP3 jest jednym z pierwszych chipsetów klasy P5, w których zaimplementowano specyfikację AGP (Acceterated Graphics Port) Intela. Intel umieszcza ten interfejs tylko na przeznaczonych dta procesorów Pentium II (P6) chipsetach płyt głównych. Zastosowanie interfejsu AGP umożliwiło budowę wydajniejszych płyt Socket 7, obsługujących szybsze karty graficzne tej magistrati. Interfejs Socket 7 umożłiwiał umieszczenie na płytach VP3 procesorów klasy P5, takich jak Intet Pentium i Pentium MMX, AMD K5 i K6 oraz Cyrix/IBM 6x86 i 6x86MX (MII).W skład chipsetu ApoHo VP3 wchodzi spełniający rolę North Bridge kontroter VT82C597 (472-końcówkowy, w obudowie BGA) oraz spełniający rolę South Bridge układ VT82C586B (208końcówkowy, w obudowie PQFP). Układ North Bridge VT82C597 cechuje tepsza wydajność komunikacji pomiędzy procesorem, pamięciami DRAM, opcjnnalitą synchroniczna pamięcią podręczną oraz magistralami AGP i PCI, zarówno w trybie potokowym, jak i w trybie burst (zwielokrotnionych cykli dostępu), a także podczas wykonywanych współbieżnie operacji. VT82C587 jest zgodny ze specyfikacją AGP t .0 i pracuje z 66-megahercową magistralą systemową.
Apotto MVP3 Apollo MVP3 różni się od układu VP3 zgodnością z nową specyfikacją !00 MHz gnia/da Super Socket 7 umożliwiającego obsługę nowszych, szybkich procesorów ktasy P5, takich jak AMł) K6 i Cyrix/[BM MU. Apolto MVP3 jest dwuukładowym chipsetem /awicrającym kontroler systemu VT82C598AT North Bridge oraz VT82C586B South Bridgc. 476-końcówkowy układ VT82C598AT jest umieszczony w obudowie BGA (Bali Crid Array), podczas gdy 208-końcówkowy układ YT82C598AT jest zamknięty w obudowie PQPF (Plastic Quad Fiat Pack). W skład układu YT82C598AT North Bridge wchodzi mostek CPU do PCI, kontroler bufora i pamięci podręcznej drugiego poziomu, kontroler pamięci DRAM, magistrala AGP ma/ magistrala PCł zezwalającą na operacje w zarówno w trybie burst (zwielokrotnionych cykli dostępu), jak i potokowym, a także na operacje wykonywane współbieżnie. Kontrotcr pamięci DRAM umożliwia stosowanie standardowych pamięci Fast Page Modę (FPM), EDO, SDRAM oraz. DDR (Double Data Ratę) SDRAM. VT82C598AT jest zgodny ze specyfikacją AGP ł.O i umożliwia pracę z magistralą procesora 66/75/83/łOO MII/ ora/ Mimcgahcict)\\ą magistralą AGP. W sktad układu YT82C586B South Bridge wchodzi mostek PCł do ISA, obsługa ACPI, SMBus, interfejs pomiędzy kontrolerem a rozdzielaczem magistrali USB, kontroler iDE Ultra-33. kontroler myszki i ktawiatury PS/2 oraz kontroler I/O. Chipset ten jest podobny do chipsetu Intel 430TX w tym, że obsługuje procesory umics/c/anc na podstawce Socket 7 (procesory Pentium i kompatybilne), pamięć SDRAM DIMM ora/ jest dwuukładową konstrukcją. Różnice stanowi przede wszystkim możliwość pracy magistrali systemowej w częstottiwości 100 MHz oraz obsługa interfejsu AGP, który Intel udostępnia tylko w chipsetach przeznaczonych dla procesorów Pentium ]). Jest to próba uczynienia płyt głównych i procesorów Socket 7 bardziej konkurencyjnymi względem tańszych procesorów Pentium II, takich jak Celeron. Zastosowany w chipsecie MVP3 układ South Bridge jest kompatybilny z nowszym PIIX4e Intcla w tym. że podobnie jak on posiada UDMA IDE, CMOS RAM oraz za-i/ąd/anie energią ACPI 1.0. Dużą pr/cwagą Apollo MVP3 nad chipsetem 430 TX Intela jest obsługa pamięci z kontrolą parzystości lub kodem korekcji błędów ECC. Dzięki możliwości osobnego definiowania rodzaju pamięci dia każdego banku, dozwołone jest mieszanie kości pamięci uhsłuL'ując\cli parzystość i kod korekcji błędów ECC. Chipset 430TX Intela nie udostępnia) żadnych funkcji ECC czy też kontroli parzystości. Taktowania pamięci są podobne jak w chipsecie Intet 430TX i wynoszą odpowiednio X-3-3-3 dla pamięci FPM, X-2-2-2 dla pamięci EDO i X-lł-I dla pamięci SDRAM. łnną pr/cwagą nad chipsetem 430TX Intela jest obszar buforowanej pamięci. Chipset 430TX umożliwiał buforowanie tylko 64 MB pamięci systemowej, co było poważnym ograniczeniem dla hardziej /aawansowanych komputerów. Rozmiar maksymalnego ob-s/aru buforowanej pamięci systemowej zależy od rozmiaru pamięci podręcznej i liczby hitów wykorzystywanych przez indeks. Na płytach głównych najczęściej instaluje się 3)2 KB łuh l MB pamięci podręcznej L2. co umożliwia buforowanie 128 lub 256 MB pamięci systemowej. Maksymalna konfiguracja zawierająca 2 MB pamięci podręcznej L2 po/wala na buforowanie 512 MB pamięci systemowej. Inteł rozwiązał ten problem umieszczając wystarczający indeks pamięci podręcznej drugiego poziomu bezpośrednio \v procesorach Pentium ii, co miiożiiwiło buforowanie 512 MB tub 4 GB pamięci systemowej. Wygląda na to, że chipset MVP3 został wybrany do tworzenia bardziej zaawansowanych ptyt głównych Socket 7 przez wieie różnych firm, jak na przykład DF[, F!C, Tyan czy Acer. Acer Laboratories, łnc (ALi) Acer Laboratories tnc. (ALi) powstał w )987 r. jako niezależne centrum badawcze
i rozwojowe Acer Group. W 1993r ALi odseparował się pod względnym finansowym i prawnym od Acer Inc. i stał się członkiem firmy Acer Group. ALi błyskawicznie zac/a! odgrywać ważną rolę wśród producentów chipsetów płyt głównych. Aiaddin )V Aladdin IV jest dwuuktadowym chipsetem, w którego skład wchodzi układ M153ł North Bridge oraz M i 533 lub M i 543 South Bridge. Aladdin iV obsługuje wszystkie procesory klasy P5, takie jak [ntel Pentium i Pentium MMX. AMD K5 i K6 oraz Cy-ri\/IBM 6.\S6 i 6x86MX (MII). Aladdin IV jest ekwiwalentem chipsetu 430TX Intefa. ale dodatkowo obsługuje poprawiające błędy funkcje pamięci oraz umożliwia pracę / wyższymi - 75 i 83,3 MHz - częstotliwościami magistrali procesora. Dodatkowo, przy wykorzystaniu uktadu M1543 staje się zbędny dodatkowy układ Super i/O, ponieważ wszystkie jego funkcje /ostały zaimplementowane w układzie MI543 South Bridye. MI53i North Bridge jest 328-końcówkowym układem zamkniętym w obudowie BGA, umożliwiającym pracę magistrali procesora z częstotliwościami 83,3, 75, 66, 60 oraz 50 MHz. M]53) umożliwia również zainstalowanie do t MB pamięci podręcznej typu pi-pelinc-burst SRAM, dzięki czemu staje się możliwe buforowanie od 64 (z H-bitową synchroniczną pamięcią SRAM indeksu) do 512 MB (z 11-bitową pamięcią indeksu) pamięci systemowej. Aladdin IV umożliwia stosowanie pamięci FPM, EDO oia/ SDRAM, do łącznej pojemności [ GB w czterech bankach. Liczba cykli zegarowych podczas odczytu kolejnych słów z pamięci w trybie back-to-back wynosi 6-3-3-3 dla pamięci typu FPM, 5-2-2-2 dla pamięci typu EDO i 6-i-l-t dla pamięci SDRAM. W cetu zwiększenia stabilności systemu i umożliwienia korzystania z chipsetu w serwerach, dodano obsługę pamięci z kodem korekcji błędów ECC i kontrolą parzystości. W chip-secie zaimpiementowano również specyfikację PCI 2.1, która dopuszcza współbieżne wykonywamc operacji na [Magistrali PCi. W ukladztc M [533 South Bridge zintegrowano obsługę ACPI, dwukanałowy kontroler Ultra-DMA/33 IDE, dwuportowy kontrołer USB oraz standardowy kontroler klawiatury i myszy. Dostępny jest również bardziej rozbudowany układ M1543 South Bridge. wkiónm /aimplcmcntowano wszystkie funkcje układu M1533 South Bridge i dodatkowo \\-v\stkic funkcje zazwyczaj oddzielnego kontrolera Super l/O. M1543 łączy w sobie funkcje dwukanatowego kontrołera Ultra-DMA/33 IDE, dwuportowego kontrolera USB, obsługi ACPI ma/ standardowego kontrolera klawiatury i myszy. W skład zintegrowanego w M1533 South Bridge kontrolera Super i/O wchodzą dwa bardzo wydajne porty szeregowe, kontroler stacji dysków 2,88 MB oraz uniwersalny port równoległy. Porty szeregowe zawierają kompatybitne z 16550 przekaźniki UART (Universal Asyn-chronous Receiver Transmitters) z t6-bajtowymi buforami F1FO (First In First Out) i możliwością obsługi StR (Serial inlra Red). Uiiiwersalny port równotegty może działać w trybie SPP (Standard Paraller Port), dwukierunkowym trybie PS/2 oraz trybie EPP (Extended Capabilities Port). Aiaddin V Zaprojektowany pt/ez Acer Labs (ALi) Aładdin V jest dwuukładowym chipsetem, w którego skład wchodzi M [541 North Bridge oraz zintegrowany z kontroterem Super L/O układ M 1541 South Bridge. Układ M1541 North Bridge ma 456 końcówek i podobnie jak posiadający 328 końcówek układ Mł543 South Bridge, został zamknięty w obudowie BGA. W porównaniu do swego poprzednika, chipset Aladdin V został wzbogacony ooh--h]L'c magistrat! ACP ora/, możtiwość pracy z wyższymi częstotłiwościaiin (do tOO MHz) magistrali systemowej. W skład układu M1541 North Bridge wchodzi mostek CPU do PCI. kontroter buforu i pamięci podręcznej drugiego poziomu, kontroter pamięci DRAM, interfejs AGP oraz kontroler magistrati PCL M154t obsługuje szybki, tOOmegahercowy interfejs Super Socket 7 wykorzystywany przez najnowsze procesory P5 firm AMD i Cyrix/tBM. W celu /ape\\i)n.'iiia kompatybilności wstecz, chipset umożliwia również pracę z częstotiiwościami magistrali
wynoszącymi S3,3, 75, 66, 60 oraz 50 MHz. Gdy magistrala procesora pracuje / częstotliwością 75 MHz, magistrala PCI pracuje z częstotliwością tylko 30 MHz; jednak już pr/y S3.3 i 100 MHz, magistrala PCI pracuje ze standardową częstotliwością 33 MHz. M 1541 posiada zintegrowaną pamięć indeksu Tag RAM (16 kB x 10) wystarczającą do obsłużenia 512 kB pamięci podręcznej L2, co znacznie uprościło architekturę pamięci podręcznej drugiego poziomu i w rczuhacie przyczyniło się do zmniejszenia liczby układów na płycie głównej. Maksymalny obszar buforowanej pamięci systemowej wynosi 512 MB przy 5)2 kB pamięo podręcznej L2 i l GB przy l MB pamięci podręcznej dru;jic;.'u poziomu. W czterech bankach można zainstalować łącznie do l GB pamięci systemowej w kościach HPM. LDO lub SDRAM. W celu zwiększenia stabilności systemu i umożliwienia korzystania z chipsetu w serwerach, dodano obsługę pamięci z kodem korekcji błędów HCC i kontrolą parzystości. Liczba cykli zegarowych podczas odczytu kolejnych słów z pamięci w trybie back-to-back wynosi 6-3-3-3-3-3-3-3 dta pamięci typu FPM, 5-22-2-2-2-2-2 dla pamięci typu EDO i 6-1-1-1-2-1-1-1 dla pamięci SDRAM. W chipsecie zaimplcmentowano również obsługę trybów lx i 2x interfejsu AGP 1.0, co umożliwia instatacjc najnowszych kart graficznych. W skład układu M1543 South Bridge ze zintegrowanym konlroterem Super I/O wchodzi obsługa ACPI. interfejs pomiędzy kontrolerem a rozdzielaczem magistrali USB, dwukanalowy kontroler IDE Ultra-DMA/33, kontroler klawiatury i mysz oraz kontroler Super l/O. W skład wbudowanego kontrołera Super I/O wchodzi zintegrowany kontroler stacji dysków, dwa porty szeregowe z możłiwością obsłtigi SIR oraz uniwersalny port równoległy. Siticon integrated Systems (SiS) Silicon integiated Systems (SiS), uprzednio znany jako Symphony Labs, jest jednym z trzech najwtckszych producentów ,,nieintelowych" chipsetów płyt głównych. 5581 i 5582 Spetntającc funkcje zarówno North Bridge, jak i South Bridge, układy 5581 i 5582 mają 553 końcówki i są zamknięte w obudowach BGA. SiS5582 jest zaprojektowany / myślą o wykorzystaniu w płytach głównych AT/ATX, natomiast SiS5581 jest przeznaczony d!a płyt głównych LPX/LNX. Pod każdym innym względem układy te niczym się od siebie nie różnią. SiS 558ł/5582 jest jednoukładowym chipsetem zaprojektowanym z myśtą o osiągnięciu taniego chipsetu o wysokiej wydajności, będącego odpowiednikiem chipsetu 430TX Intela. Zintegrowanie wszystkich funkcji w jednym układzie umożiiwiło wytwarzanie tanich płyt głównych. Układy 5581 i 5582 spełniają funkcje zarówno North Bridge, jak i South Bridge, łącznie / funkcjami mostka PCI do ISA, funkcjami PCł [DE, funkcjami interfejsu pomiędzy kontrolerem a rozdzielaczem magistrali USB, zintegrowanym zegarem czasu rzeczywistego RTC, oraz zintegrowanym kontrolerem klawiatury. Układy te umożliwiają pracę z magistra!;) procesora o częstottiwości 50, 55. 60, 65 oraz 75 MHz. Maksymalnie mu/na /ainstaiować 512 KB pamięci podręcznej L2, co umożliwia buforowanie do I2S MB pamięci systemowej. Wartość maksymatnego możliwego do buforowania obszaru pamięci systemowej zależy od rozmiaru pamięci podręcznej oraz liczby bitów indeksu. Na płytach głównych najczęściej instaluje się 512 KB pamięci podręcznej, co umożliwia buforowanie 128 MB RAM, pomimo iż chipset pozwala na umieszczenie w trzech bankach pamięci łącznie do 384 MB RAM. Ponieważ chipset został zaprojektowany z myślą o wykorzystaniu w sektorze tańszych komputerów, nie ma funkcji kontroli parzystości ani kodu korekcji błędów pamięci. Taktowania pamięci wynoszą odpowiednio x-3-3-3 dla pamtęci typu FPM, x-2-2-2 dla pamięci typu EDO, natomiast x-!-!-! dla pamięci SDRAM. W skład chipsetów 5581 i 5582 wchodzi zarządzanie energią ACPI (Advanced
Confi-guration and Power Interface), dwukanałowy interfejs Ultra-DMA/33 IDE, kontroler USB, a nawet CMOS RAM i zegar czasu rzeczywistego (RTC). Zastosowanie interfejsu PCI 2.1 umożliwiło dokonywanie współbieżnych operacji na magistrali PCI. Chipsety 5581 i 5582 nie obsługują interfejsu AGP. 5591 i 5592 SiS 5591/5592 jest trójukładowym chipsetem zawierającym jeden z pełniących rolę North Bridge układów 5591 i 5592 oraz spełniający funkcję South Bridge układ SiS5595. Oba 553-końcówkowe układy North Bridge są zamknięte w obudowie BGA i zasilane napięciem 3,3 V. 208-końcówkowy układ 5595 South Bridge jest zamknięty w obudowie PQPf- i zasilany napięciem 5 V. SiS5591 North Bridge został zaprojektowany / myśtą o wykorzystaniu w płytach głównych ATX, natomiast SiS5592 jest przeznaczony dla płyt głównych NLX. Pod żadnym innym względem układy te niczym się od siebie nie różnią W układach 5591 i 5592 North Bridge został zintegrowany mostek PC! do magistrali systemowej, kontroler pamięci podręcznej drugiego poziomu (L2), kontroler pamięci DRAM, interfejs AGP oraz kontroler Pci [DE. Układ SiS5595 South Bridge zawiera mostek PCI do ISA, jednostkę zarządzania energią ACPł/APM. interfejs kontrolera USB oi';)/. interfejs magistrali [SA, w którym zintegrowano kontroler magistrali ISA, kontrolery DMA, kontrolery przerwań ora/, programowalne generatory interwałów czasowych. W układzie SiS5595 zintegrowany jest również kontroler klawiatury oraz zegar czasu rzeczywistego (RTC). Oba układy North Bridge umożliwiają pracę magistrali procesora do 75 MHz. Oba pozwalają również na zainstalowanie do l MB pamięci podręcznej L2, co umożliwia buforowanic do 256 MB pamięci systemowej. Rozmiar obszaru buforowanej pamięci zależy od pojemności zainstalowanego układu pamięci podręcznej oraz od liczby bitów indeksu. Na ptytach głównych najczęściej instaluje się 5!2 kB lub l MB pamięci podręcznej. Zasto-stwanic 512 kB pamięci podręcznej z 7 bitami indeksu umożliwia buforowanie 64 MB pamięci systemowej, podczas gdy ta sama ilość pamięci podręcznej, ate z 8 bitami indeksu, po/wala na buforowanie już 128 MB. Po zainstalowaniu l MB pamięci podręcznej, maksymalny możliwy do buforowania obszar pamięci podwaja się i wynosi 256 MB. Chipset po/wala na umieszczenie w trzech bankach łącznie do 256 MB pamięci systemowej. W celu zwiększenia stabilności systemu i umożliwienia korzystania z chipsetu w serwerach, dodano obsługę pamięci z kodem korekcji błędów ECC i kontrołą parzystości. Takh)\\anie pamięci systemowej to odpowiednio x-3-3-3 d!a pamięci FPM, x-2-2-2 dla pamięci EDO, a x-M-I dla pamięci SDRAM. Zastosowana w chipsecie magistrala PCI jest zgodna ze specyfikacją PCI 2.1 i umożłi-wia pracę do częstotliwości 33 MHz. W chipsecie zaimplementowano również obsługę trybów )x i 2x interfejsu AGP. W skład osobnego układu 5595 South Bridge wchodzi interfejs USB oraz dwukanałowy interfejs Ułtra-DMA/33. Chipsety szóstej generacji(kiasy P6 Pentium Pro/Pentium H) Intel wyraźnie zdominował rynek chipsetów procesorów Pentium i właściwie stał się jedynym liczącym się producentem chipsetów d!a procesorów Pentium Pro i Pentium !I. Tak;) pozycję na rynku Intel osiągnął przede wszystkim dzięki prowadzonej od 1993 r. i pierwszych procesorów Pentium polityce wydawania wraz z nowymi procesorami nowych, obsługujących je chipsetów (a nawet całych, gotowych płyt głównych). Zastosowanie takie; taktyki znacząco utrudniło życie innym producentom. Innym problemem, z którym musieli się borykać niezależni producenci chipsetów, było to, że w odróżnieniu od dostępnego dla wszystkich gma/da Socket 7, Intel posiada interfejs Slot ł i nikomu nie udzicta na niego licencji. Po prostu Intel chce zachować dla siebie cały rynek komputerów Pentium II. Pomimo iż Intel nie udziela licencji na swój Slot t, wielu niezależnych
producentów, takich jak VIA Technologies, Acer Laboratories, Inc (ALi) czy też Silicon integrated Systems (SiS), zaprezentowało ostatnio chipsety płyt głównych Pentium H z interfejsem Slot I. Bez bezpośredniej licencji, firmy te musiały korzystając z własnych rozwiązań odtworzyć budowę i projekt gniazda Slot ł. Najprawdopodobniej jest to najlepszym wytłumaczeniem opóźnienia niezależnych producentów w produkcji płyt głównych przeznaczonych dta procesorów Pentium II i Pentium Pro Ponn.-\\a/ procesory Pentium Pro i Pentium II różnią się od siebie właściwie tytko trochę innymi m/wia/aniann architektury pamięci podręcznej, ten sam chipset potrafi obsłużyć /aiownu procesory korzystające z interfejsu Socket 8 (Pentium Pro), jak i S!ot I (Pentium II). Jest lo prawdą przynajmniej w przypadku starszych chipsetów ktasy P6. jak na przykład 440FX Intela. Nowsze chipsety, poczynając od 440LX, są zoptymalizowane na architekturę Slot ) i prawdopodobniej nie potrafiłyby już obsłużyć interfejsu Socket 8. Obecnie, procesory Pentium Pro są już przestarzałe w porównaniu do procesorów Pcntmm H i właściwie można je spotkać tytko w starszych serwerach plikowych i innych, jcs/cze do niedawna zaawansowanych komputerach. Pomimo iż na rynku chipsetów ktasy P6 pojawiło się kilka innych firm, praktycznie we wszystkich płytach głównych dta Pentium Pro i Pentium H zostaty wykorzystane chip-srty tmela. S/acowany udział tntela na tym rynku jest btiski 100%. W chipsetach szóstej generacji nadał korzysta się z. po raz pierwszy zastosowanego w )m<Ł\'M)iach Pentium pod/.iatu na North Bridge i South Bridge. Dodatkowo, wykorzystywane są te same uktady South Bridge. co w wielu chipsetach procesorów Pentium. W labcli d J7 /ostały wypisane chipsety płyt głównych procesorów Pentium Pro. Dla proccsumw Pcntium tl tnteł oferuje chipsety wypisane w tabeti 6.38 Procesory Pentium Pro i Pentium II zawierają w sobie zintegrowaną pamięć podręczną drugiego poziomu (L2). Z tego powodu możliwości buforowania pamięci systemowej nie są zależne od chipsetów płyt głównych, lecz od samych procesorów. Z procesorów Pentium H tylko Celeron nie posiada zintegrowanej pamięci podręcznej drugiego poziomu (L2). We ws/ystkich chipsctach tntela zastosowano dwueleinentową architekturę zawierającą układy North Bridge i South Bridge. Często się zdarza, że ten sam układ South Bridge tuwar/ys/y wiciu usznym chipsetom North Bridge. W tabeli 6.39 zostały wypisanc \\s/ysik)c produkowane przez Inte) układy South Bridge, wraz z ich możliwościami. Specyfikacja PCI 2.1 dopuszcza współbieżne wykonywanie operacji na magistrali PCI. Poniżej zostały opisane chipsety dła procesorów klasy P6: Pentium II i Pentium Pro.
intet 450KX/GX (Orion Workstation/Server) Pierwsze dwa chipsety obsługujące procesory Pentium II miały wspólną nazwę kodową Orion Cltipset 450KX został zaprojektowany z myśląc wykorzystaniu go w stacjach roboc/ych. natomiast bardziej zaawansowany 450GX miał znaleźć
zastosowanie w serwerach plików. Przeznaczony do serwerów chipset GX ma szczególnie duże możliwości i obsługuje do 8 GB pamięci o czterościeżkowym dostępie przeplatanym [4-way intciłca\cd memory], cztery procesory Pentium Pro, a nawet dwie osobne magistrałe PCł. Chipset K.\ /ostał zaprojektowany z myślą o wykorzystaniu w stacjach roboczych i \\ /wiayktt z tym umożliwia zainstalowanie mniejszej liczby procesorów (tylko dwóch) i mniejszej ilości pamięci (l GB). Oba chipsety posiadają funkcje kontroli parzystości pamięci i kodu korekcji błędów ECC. 450GX i 450KX North Bridge składają się z czterech oddzielnych układów: mostka PCI 82454KX/GX, ścieżki danych DP (Data Path) 82452KX/GX, kontrolera danych DC (Data Controller) H2453KX/GX oraz kontrolera interfejsu pamięci MIC (Memory Interlacc Controlter) 8245IKX/GX. Układy mostka PCI i ścieżki danych DP były dostępne w dwóch wersjach: w obudowie QFP (Quad Fiat Pack) oraz w obudowie BGA (Bali Grid Array). Wersja w obudowie BGA zabierała mniej miejsca na płycie głównej. \\ \suka nic/awodność chipsetów z serii 450 została osiągnięta dzięki zastosowaniu kodu korekcji Nędow ECC pomiędzy magistralą procesora Pentium Pro a pamięcią. Niezawodność chipsetu zwiększało również zabezpieczenie parzystością magistrali procesora, magistrali sterującej oraz wszystkich sygnałów magistrali PCI. W celu zapobiegnięcia okresom wyłąc/cnia serwera z powodu nieprawdziwych błędów pamięci powodowanych pi/c/ promieniowanie kosnuc/ne, do chipsetu dodano również korekcję błędów pojedynczych bitów pamięci.
Tabeła 6.38.
Chipset Na/\va kodoss.i Data wprowadzenia na r\ nck Częstotliwości magistrali SMP (dwuproccsorowość) Typy pamięci Kontrola par/ystośct/ ECC Maksymalny rozmiar
440 LX
440E X Brak
440B X Brak
66 MHz
Kwiec ień 1998 66 MHz
Tak
Nie
Kwiec ień 1998 66/ 1 00 MHz Tak
66 MH z Tak FP M/ ED O/ Tak
FP M/ ED O/ Tak
FP M/ ED O/ Brak
FP M/ ED O/ Tak
256 MB
W proc esor
1 GB EDO/ 5 12 MB SDRA W proceso rze
Brak Sierpie ń 1 997
ł GB
pamięci Typ pamięci podręcznej L2 Maksymalny obszar buforowania
440 FX Nato ma \!aj [996
ł GB
ł GB
ł GB
W proces orze
! GB
t GB
W proces orze
Obsługa PCI
2.1
2. ł
2.1
2. ł
Obsługa AGP
Nie
AGP tx
Przepustowość magistrali AGP
Nie dot.
.South Bridge h,/' Af
PH X3 ./;;t
266 MB/sek . PIIX4
AGP )x 266 MB/s ek. PIIX3 E
AGP2 x 533 MB/se k. PMX4 E
REDO B;
Hf
PC/ ('<';;;/<<
::";z ^,
/'t77/'/;c/
P//X /'(7AM/DEXr^ ^/O
\si7< ;/; //O
/
'Cf
M Patrz „Niezawodność pamięci", str. 419 Dn c/asu uka/.ania się na rynku chipsetu 440FX. oba chipsety były wykorzystywane niemal wyłącznie w serwerach plików. Po jego ukazaniu się, chipsety Orion zostały za-z powodu wysokiej ceny i skomplikowania.
Tabeta 6.39.
Nazwa układu
sto
Numer e/eśei Obsługa [DE
82378IB/ ZB Hrak
Obsługa USB
Brak
CMOS/Zegar
Nie
Zarządzanie SMM energią 3/O .SSA7(7H //O
P t 8 2 B M B r N i S M
P PttX4 t 8 8237iAB 2 B UDMA M T Tak a N Tak i S SMM M
PttX4E 8237 IEB UDMA Tak Tak ACPI ].()
inte! 440FX (Natoma) Pierwszym popularnym chipsetem procesorów Pentium Pro był chipset 440FX o nazwie kodowej Natoma. Byt on bardzo podobny do chipsetu 43()HX Triton H procesorów Pentium i oferował większą wydajność niż chipsety Orion, zarazem znacznie mniej kosztując. Pomimo wszystkich swoich zalet, chipset 440FX nie potrafił obsłużyć tyłu procesorów co 45()GX, dzięki czemu nadal preferowano korzystanie z chipsetu 450GX przy najbardziej wymagających aplikacjach. Chipset 440FX był zbudowany z o połowę mniejszej liczby elementów niż poprzedni clnpset Intela. Dodatkowymi cechami chipsetu Natoma była obsługa standardu PCI 2. ł (współbieżnej magistrali PCI), obsługa uniwersalnego portu szeregowego (USB), oraz mc/awoduosc osiągnięta dzięki zastosowaniu kodu korekcji błędów (ECC). /astosowanie współbieżnego przetwarzania operacji na magistraii PCI umożliwia równoczesną pracę magistral procesora, PCI oraz ISA, co maksymalizuje wydajność komputera. Dzięki wspótbieżności zwiększa się przepustowość magistrali PCI, co pozwala na osiągnięcie tepszej jakości grafiki 2D/3D, filmów i dźwięku oraz na przetwarzanie większej liczby danych. Dzięki zastosowaniu pamięci z ECC zwiększa się stabilność systemu, szczególnie ważna dla użytkowników komputerów wykorzystywanych do działań komercyjnych.
Główne cechy chipsetu 440FX to: + Obsługa do l GB pamięci EDO + Możliwość buforowania pełnego ł GB pamięci systemowej (bazująca na procesorze, ponieważ pamięć podręczna L2 i pamięć indeksu znajdują się w procesorze)
+ Obsługa USB + Obsługa BusMaster IDE + Pctna obsługa parzystości/ECC W chipsccic 44()FX /astosowano dwunkładową architekturę North Bridge. Głównym clc!nentemjest kontroter pamięci i mostek PCI 82441FX, towarzyszący akcełeratorowi magistrali danych PCI 82442FX. Rolę South Bridge spełnia układ PHX3 82371SB. który uhstmaiic hard/o s/.ybki interfejs BusMaster DMA IDE i USB oraz spełnia rolę mostka pomięd/y magistraty I^CI a łSA. Warto zauważyć, że choć był to pierwszy chipset klasy P6 obsługujący pamięci EDO, nie potrafił jednak obsługiwać szybszych pamięci SDRAM. W dodatku zastosowany w tym chipsecie układ PIIX3 nie obsługiwał szybszych dysków Ultra DMA IDE. Chipset 440FX został wykorzystany w pierwszych płytach głównych przeznaczonych dla procesorów Pcinium II. których architektura bardzo niewiele różniła się od procesorów Pcntium Pro. Najprawdopodobniej procesory Pentium H ukazały się na rynku wiełe miesięcy wc/.cśuiej, nim /ostał ukończony przeznaczony do ich obsługi chipsct, i w zwi^/ku z tym, wiele wczesnych płyt procesorów Pentium H /budowano w oparciu o starszy chipset 440FX. Wcześniej nikt nie przypuszczał, że chipset ten będzie wykorzystywany w płytach głównych procesorów Pentium Ił, co spowodowało, że jest on znacznie wolniejszy od specjalnie dostosowanego do architektury procesorów Pentium ł] chipsctu 4301 .X. Wtaśnic z tego powodu zazwyczaj doradzałem łudziom, by wstrzymali się / kupnem płyt głównych Pentium H opartych na chipsecie 440FX i czekali na mający się niedługo ukazać chipset 440LX. W niedługim czasie od pojawienia się szybszego i dysponującego większymi możłiwościami chipsetu 440LX, chipset 44()FX został całkowicie wyparty z rynku. tnte! 440LX Niedługo po ukazaniu się w sierpniu 1997 roku. chipset 440LX stał się najpopularniej-s/ym chipsctcm na tynku. Był to pierwszy chipset w pełni wykorzystujący możliwości procesorów Pentium II. Chipset 440LX miał wiełe ulepszeń w porównaniu do 440FX: + Ohstuga nowej magistrałi kart graficznych AGP (Advanced Graphics Port) + Obsługa ()6 MHz pamięci SDRAM + Obsługa interfejsu Ultra DMA IDE + Obsługa uniwersalnego portu szeregowego (USB) Od końca iW7 r. do początku 1998 r., chipset 440LX był najpopularniejszym chipsetem płyt głównych procesorów Pentium H na rynku.. tnte! 440EX 44()EX jest tańs/ą i oferującą nieco gorszą wydajność alternatywą chipsetu 44()LX. Chipset len po raz pierwszy ukazał się na rynku w kwietniu 1998 roku, wraz z prze/na c/onym na rynek tanich komputerów procesorem Celeron. 440EX nie posiada wielu
leps/ego diipsetu 440LX - nie potrafi obsługiwać wietu procesorów, nie posiada leż kontroti parzystości ani kodu korekcji błędów. Chipset ten jest zaprojektowany z myślą o rynku tanich komputerów pracujących z magistrat;) systemową o c/ęstotliwości 66 MHz i wyposażonych w przeznaczone dła tanich komputerów procesory Celeron Inteta. Warto tu zauważyć że płyty główne zbudowane w oparciu o chipset 440EX w pełni obsługują procesory Pentium H. ale nie posiadają niektórych możliwości lepszych chip-i440BX. .mo /apamiclać. że chipset 440EX: + Jest przystosowany do obsługi przede wszystkim procesora Intel Celeron + Jego możliwości są dostosowane do potrzeb sektora tanich komputerów PC + Posiada magistralą AGP + Nie obsługuje pamięci z kontrolą parzystości lub kodem korekcji błędów ECC + Obsługuje tylko jeden procesor Chipset 44t)HX to posiadająca mniejsze możliwości, przeznaczona dla komputerów nie spełniających ważnych zadań, mniej niezawodna wersja chipsetu 440LX W skład chipsetu 44()EX wchodzi 82443EX PAC (PCI AGP ControHcr) North Bridge ora/ nowy układ 8237 1 EB (PMX4E) South Bridge. Choć chipset ten spełnia swoje zadanie w większości mniej wymagających zastosowań, zazwyczaj zalecam zastosować zamiast niego szybszy, mający większe możliwości i bardziej niezawodny (z pamięcią ECC) chipset 44QBX. !nte) 440BX Chipset Intel 440BX pojawił się na rynku w kwietniu 1998 i był pierwszym chipsetem umożliwiającym pracę ze 100-megahercową magistralą procesora (czyli w zasadzie całą płytą główną). Tę częstotliwość pracy dodano w celu umożliwienia obsługi procesorów Pcnlium H pracujących z częstotliwościami 350, 400 oraz 450 MHz. Istnieje rówmc/ cnergoos/c/cdna wersja tego chipsetu, która jest pierwszym chipsetem przeznaczonym dla komputerów przenośnych i obsługującym procesory Pentium łł. Chipset 440BX różni się od 440LX przede wszystkim zwiększoną wydajnością wynikającą z wicks/cj przepustowości magistrali systemowej podczas pracy z częstotliwością 100 MU/. Chipsct ten może działać zarówno z częstotliwością 66, jak i 100 MH/. d/icki c/cmn obsługuje wszystkie procesory Pentium H pracujące z częstotliwościami od 233 do ponad 450 MHz. Najważnicjs/c cechy chipsetu 440 BX Inteta to: + Obsługa 100 MHz pamięci SDRAM + Możliwość pracy ze 66- i H)0-mcgahercową magistralą systemową oraz pamięciami + Obsługa ACPI (Advanced Configuration and Power Interface specification) + Pierwszy chipset obsługujący wersję procesora Pentium II Intela dla komputerów przenośnych (Mobile Intel Pentium H) tt Patrz „Procesory Mobite Pentium 11", str. 1152 Intel 440BX zawiera pojedynczy układ North Bridge o nazwie 82443BX Host Bridge/ Controller, któremu towarzyszy nowy, spełniający rolę South Bridge, układ 82371 EB PCI-tSA/lDE Xcelerator (PI!X4E). W nowym układzie South
Bridge dodano obsługę specyfikacji ACPI w wersji 1.0 440BX jest aktualnie najbardziej zaawansowanym chipsetem przeznaczonym przez Intel na rynek zwykłych użytkowników. Chipset ten oferuje doskonałą wydajność połączoną z wysoką niezawodnością, osiągniętą dzięki zastosowaniu pamięci SDRAM (Synchronous DRAM) i DIMM (Dna! Inline Memory Modules) z kodem korekcji błędów (ECC). Chipsety k)asy P6 producentów niezależnych Acer Laboratories, tnc. (ALi) Aiaddin Pro !! Aladdin Pro 11 M[621 firmy Acer Labs (ALi) jest dwuukładowym chipsetem procesorów klasy P6 (Pentium Pro i Pentium 11) składającym się z dwóch umieszczonych w obudowach BGA układów - 456-końcówkowego układu M1621 North Bridge oraz jednego ze spełniających rolę South Bridge układów M1533 i M1543. Jest to jeden z pierwszych, wyprodukowanych przez firmę inną niż Inteł chipsetów, które obsługują umieszczane w złączu Slot I procesory klasy P6. W skład M1621 North Bridge wchodzi kontroler magistrałi AGP, kontroler pamięci, kontroler I/O, a także ścieżka danych, zawierająca wieloportowe bufory przyspieszające transfer danych. Chipset obsługuje wiele procesorów Pentium II pracujących z częstotliwościami 60. 66 oraz 100 MHz magistrali systemowej. Aladdin Pro II jest odpowiednikiem chipsetu Intel 440BX. Aladdin Pro 11 M[621 firmy Acer Labs (ALi) jest dwuukładowym chipsetem procesorów klasy P6 (Pentium Pro i Pentium 11) składającym się z dwóch umieszczonych w obudowach BGA układów - 456-końcówkowego układu M1621 North Bridge oraz jednego ze spełniających rolę South Bridge układów M1533 i M1543. Jest to jeden z pierwszych, wyprodukowanych przez firmę inną niż Inteł chipsetów, które obsługują umieszczane w złączu Slot I procesory klasy P6. W skład M1621 North Bridge wchodzi kontroler magistrałi AGP, kontroler pamięci, kontroler I/O, a także ścieżka danych, zawierająca wieloportowe bufory przyspieszające transfer danych. Chipset obsługuje wiele procesorów Pentium II pracujących z częstotliwościami 60. 66 oraz 100 MHz magistrali systemowej. Aladdin Pro II jest odpowiednikiem chipsetu Intel 440BX. Zintegrowany kontroler pamięci umożliwia korzystanie z układów FPM, EDO oraz SDRAM. Maksymalnie można zainstalować l GB pamięci SDRAM !ub 2 GB pamięci EDO. W celu zwiększenia stabilności systemu i umożliwienia korzystania z chipsetu w serwerach, dodano obsługę pamięci z kodem korekcji błędów ECC i kontrolą parzystości. Taktowania odczytów pamięci w trybie backto-back to odpowiednio x-2-2-2-2-2-2-2 dla pamięci EDO i x-l-l-)-l-l-l-ł dla pamięci SDRAM. Układ Mł621 obsługuje magistrałę AGP 1.0 zarówno w trybie lx, jak 2x i jest w pełni zgodny /. PCI 2.1 dopuszczającym współbieżne wykonywanie operacji na magistrali PCI. M162ł może towarzyszyć układowi M1533 South Bridge lub też połączonemu układowi M1543 South Bridge/Super I/O. W skład 328-końcówkowego, umieszczonego w obudowie BGA układu M1533 South Bridge wchodzą: + Mostek PCI do ISA + Wbudowany kontroler myszy t klawiatury + Rozszerzone zarządzanie energią zgodne z ACPI (Advanced Configuration and Power Interface) + D\\ uportowy interfejs USB
4 Dwukanałowy kontroler UItra-DMA/33 IDE M1543 ma wszystkie możliwości układu 1533 i dodatkowo w pełni zintegrowany Super I/O zawierający kontroler stacji dysków, dwa szybkie porty szeregowe oraz jeden uni-wersatny port równotegły. V!A Technotogies ApoNo P6/97 VT82C680 Apollo P6 jest bardzo wydajnym, szybkim i oszczędzającym energię chipsetem dla komputerów przenośnych i stacjonarnych wykorzystujących 64bitowy procesor Pentium H Inteta. Był on jednym z pierwszych, nie wyprodukowanych przez Intela chipsetów i jest funkcjonalnym ekwiwalentem chipsetu Intel 440FX. ApoHo P6 umożliwia tworzenie dwuprocesorowych konfiguracji pracujących z częstotliwością 66 MHz zewnętrznej magistrali procesora. Pamięci DRAM i magistrala PCI są niezależnie od siebie zasilane i mogą działać z napięciami 3,3 lub 5 V. Magistrala ISA jest zawsze zasilana napięciem 5 V. Apollo P6 umożliwia zainstalowanie do l GB pamięci systemowej. Chipset ten nigdy nie osiągnął dużej popularności. ApoNo Pro ApoHo Pro jest bardzo wydajnym chipsetem przenośnych i stacjonarnych komputerów z procesorami Pentium II. Cechami chipsetu Apollo Pro jest zaawansowane zarządzanie energią, zarówno w wersji dla komputerów przenośnych, jak i dla stacjonarnych, możliwość stosowania pamięci PCIOO SDRAM, tryb 2x magistrali AGP oraz wiele konfiguracji taktowania procesora i pamięci. Chipset Apollo Pro ma porównywalne do chipsetu 440BX z układem PHX4e możliwości i jest jednym z pierwszych nie wyprodukowanych przez Intela chipsetów obsługujących architekturę Slot 1. VIA ApoHo Pro składa się z dwóch układów: spełniającego ro!ę North Bridge układu VT82C69I, a także zawierającego pełną obsługę zarządzania energią dla komputerów przenośnych, umieszczonego w obudowie BGA układu YT82C596 North Bridge. W tańszych, przeznaczonych do komputerów stacjonarnych płytach głównych, układowi YT82C691 może towarzyszyć YT82C586B South Bridge. Układ YT82C691 North Bridge obsługuje wszystkie procesory korzystające ze złącza Slot l (Pentium II) oraz Socket 8 (Pentium Pro). ApoHo Pro umożliwia pracę zarówno z66-rnegahercową, jak i nowszą, 100-megahercową zewnętrzną magistralą procesora, wymaganą przez 350 MHz i szybsze procesory Pentium H. Chipset obsługuje również magistrale AGP t.O, PC! 2.], a także pamięci FPM, EDO oraz SDRAM. Chipset zezwala na dowolne łączenie różnych typów pamięci DRAM w nawet ośmiu bankach. Maksymalnie można zainstatować l GB pamięci systemowej. Taktowania odczytów pamięci w trybie back-to-back to odpowiednio 5-2-2-2-2-2-2-2 dla pamięci EDO i 6-1-1-[-I-I-I-I dla pamięci SDRAM. VT82C596 South Bridge obsługuje dwa standardy zarządzania energią: ACPI (Advan-ced Configuration and Power Interface) oraz APM (Advanced Power Management). W Liklad/ie zawarto również zintegrowany kontroler USB i podwójne porty UltraDMA-66 EIDE. Siticon integrated Systems (SiS) SiS5600/5595 Chipset 5600/5595 został zaprojektowany dla tanich procesorów Ceteron działających z 66- lub 100-megahercową magistralą systemową i ukazał się na rynku w czerwcu [998 roku. SiS ma nadzieje, że ten tani chipset umożliwi wkroczenie technologii Pentium ]] na rynek tańszych komputerów.
Rozdział 7. Pamięć W tym rozdziate /ostanie omówiona pamięć, zarówno od strony budowy, jak i wykorzystania przez komputer. Na początku zdefiniujemy, czym jest pamięć, jakie zajmuje miejsce w architekturze komputerów PC oraz w jaki sposób działa. Omówimy różne typy, szybkości ora/ obudowy układów pamięci, które możesz kupić i zainstałować w komputerze. /ustanie również omówiona togiczna organizacja pamięci, zdefiniowane różne jej obszary ora/ ich wykorzystanie z punktu widzenia systemu. Ponieważ łogiczna organizacja pamięci i jej zastosowania znajdują się w „umyśte" procesora, jest ona, wrą/ / mapowaniem pamięci, jednym z najtrudniejszych do zrozumienia pojęć w świecie pecetów. Rozdział ten /awicra użyteczne informacje zdejmujące towarzyszącą pamięci zasłonę tajemniczości. Podstawowe wiadomości o pamięci Pamięć jest tymczasowym nośnikiem danych, muszą się w niej znajdować wszystkie program) i dane przetwarzane w danej chwiti przez procesor komputera. Pamięć jest nośnikiem tymczasowym, ponieważ wszystkie dane i programy pozostaną w niej tytko do momentu wyłączenia tub zresetowania systemu. Dłatego właśnie przed zresetowa-niem tub wyłączeniem komputera powinno się zapisać na trwatszy nośnik (najczęściej t \\ardy dysk) wszystkie zmiany, by w przyszłości można je było odtworzyć. Pamięć często okreśta się mianem RAM, co jest skrótem od Random Access Memory (pamięć o tosowym dostępie). Nazywa się ją tak dtatego, iż można tosowo (i szybko) uzyskać dostęp do każdej pozycji w pamięci. Gdy mówimy o pa/H;'<7(';' komputera, najczęściej mamy na myśti systemową pamięć RAM, przechowującą uruchomione programy i dane pr/.ciwar/.anc przez procesor. Skrótem RAM można okreśtać zarówno same kości pamięci, jak i jej togiczną organi-/ację ora/ mapowanie w systemie. Pod pojęciami mapowania i togicznej organizacji pamięci kryje się sposób, w jaki są mapowane adresy pamięci w zainstatowanych układach oraz rozmieszczenie różnych typów informacji systemowych w okreśtonych adresach. Początkujący użytkownicy komputerów często mytą pamięć z pojemnościami dysków, ponieważ pojemność zarówno pamięci, jak i dysków wyraża się w megabajtach i giga-bajtach. Najlepszą analogią wyjaśniającą zależności między pamięcią a dyskami, jaką znalazłem, jest porównanie ich do małego biura z biurkiem i kartoteką. W tej popularnej analogii kartoteka reprezentuje twardy dysk, w którym zarówno programy, jak i dane są przechowywane przez dłuższy czas. Biurko przedstawia pamięć systemową, dzięki której pracująca przy biurku osoba (działająca jak procesor) ma bezpośredni dostęp do każdej położonej na nim teczki (pliku). Każda teczka, zanim rozpocznie się nad nią pracę, musi zostać przeniesiona z kartoteki na biurko. Jeśli biurko jest wystarczająco duże, można będzie otworzyć na nim w tym samym czasie wiete teczek; podobnie jest z komputerem - jeśli ma więcej pamięci, będzie można na nim uruchomić więcej lub większe programy. Zwiększenie pojemności twardego dysku w komputerze jest tym samym, co zaopatrzenie biura w większą kartotekę - będzie można przechowywać przez dłuższy czas więcej plików (teczek). Zwiększenie pojemności pamięci jest podobne do wymienienia biurka na większe - będziesz mógł pracować w tym samym czasie z większą liczbą programów i danych. Istnieje jednak poważna różnica pomiędzy pracą biura a tym, co w rzeczywistości dzieje się z danymi w komputerze - w przeciwieństwie do biura, dane
umieszczane w pamięci komputera są tylko kopiami, podczas gdy oryginalne pliki nadal pozostają na twardym dysku. Zwróć uwagę, że z powodu tymczasowej natury pamięci, wszystkie zmienione pliki muszą być ponownie zachowane na dysku, zanim zostaną utracone w wyniku wyłączenia lub zrestartowania komputera. Jeśli nie zapiszesz zmian dokonanych na pliku pozostającym w pamięci, oryginalny plik na twardym dysku pozostanie niezmieniony. To jest tak, jakby w chwili zamknięcia biura wyrzucano wszystkie pozostałe na biurku teczki, podczas gdy oryginały nadal pozostają w kartotece. Pamięć tymczasowo przechowuje uruchomione programy oraz wykorzystywane przez nie dane. Kości RAM czasem są również nazywane p
prawdopodobnie nie ułegnie zmianie i płyta główna, którą kupisz za rok, będzie musiała być obsadzana innymi od stosowanych dzisiaj układami pamięci. Z tego powodu ważnym jest, byś poznał wszystkie typy aktuałnie sprzedawanych pamięci, dzięki czemu łatwiej będzie ci zdecydować, jakiego rodzaju pamięci wymaga dany komputer, z większą łatwością będziesz mógł również planować przyszłe modernizacje i naprawy. Typy pamięci Aby lepiej zro/umicć pamięć, należy poznać rołe, jakie spełniają jej różne typy w systemie. W nowoczesnych komputerach PC stosuje się przede wszystkim trzy typy pamięci: + /WM. Read Onły Memory (Pamięć tylko do odczytu) + D/MM. Dynamie Random Access Memory (Dynamiczna pamięć o losowym dostępie) . Static RAM (Statyczna pamięć RAM) ROM ROM jest typem pamięci, która może sta!e przechowywać dane. Pamięć ROM jest nazywana pamięcią tylko do odczytu, ponieważ zmiana zawartych w niej danych jest albo bardzo trudna, albo niemożliwa. ROM jest również nazywana pamięcią nieulotną, ponieważ wszystkie znajdujące się w niej dane nie ulegną wymazaniu nawet po wyłączeniu komputera. /, tego powodu ROM jest idealny do przechowywania instrukcji wykonywanych przy uruchamianiu się systemu. Zauważ, że ROM i RAM, pomimo opinii niektórych ludzi, nie są swoimi przeciwieństwami. W rzeczywistości ROM stanowi część pamięci systemowej. Innymi słowy, c/esc adresów pamięci RAM jest mapowana (czytaj: przypisana) na jeden lub więcej układów ROM. Bez lego komputer nie mógłby się uruchomić, ponieważ po włączeniu zasitania procesor nie miałby w pamięci żadnego programu, który mógłby wykonać. tt Patrz „Proces uruchamiania komputera", str. 123S Po uruchomieniu komputera PC, procesor automatycznie wykonuje skok do adresu FFFFOh. spodziewając się odnaleźć pod tym adresem instrukcję, co ma robić dalej. Adres ten mieści się dokładnie 16 bajtów od końca pierwszego MB pamięci RAM i końca ROM. Gdyby był mapowany na zwykłe układy pamięci, wszystkie znajdujące się w nich dane zniknętyby po wyłączeniu komputera i po ponownym jego włączeniu procesor nie byłby w stanie znaleźć instrukcji informujących go, co ma zrobić dalej. Dzięki umieszczeniu pod tym adresem układów ROM, zapisany w nich program uruchamiania się komputera będzie dostępny przy każdym jego włączeniu. Więcej informacji o dynamicznej pamięci RAM można znaleźć w sekcji ,,DRAM", Pamięć ROM rozpoczyna się zazwyczaj od znajdującego się 64 kB przed końcem pierwszego megabajta adresu FOOOOh. Ponieważ układy ROM mają zazwyczaj pojemność 64 kB. zawanc w nich programy zajmują całe ostatnie 64 kB pierwszego megabajta, łącznic z najwaznicjs/ym adresem FFFFOh, zawierającym instrukcję startu. To, że komputery PC rozpoczynają wykonywanie instrukcji 16 bajtów przed końcem pamięci ROM, może wydawać się dziwne, ale zostało to zaprojektowane celowo. Wszystkie programatory ROM-ów umieszczają pod tym adresem instrukcję skoku (JMP), wskazującą aktuatny adres początku ROM-u - najczęściej jest nim znajdujący się o około 64 kB wcześniej adres FOOOOh. To tak, jakby zdecydować się na czytanie każdej książki od 16 strony od końca i umówić się z
wydawcami, by umieszczali na tej stronic instrukcję, o ile stron należy się cofnąć, by znaleźć się na początku książki. Dzięki icmu m/wiązaniu. Intel umożliwił stosowanie układów pamięci ROM o różnych rozmiarach. BIOS komputera jest zapisany w układzie pamięci ROM znajdującym się na płycie głównej, ale oprócz niego istnieją również B!OS-y umieszczone na poszczególnych kartach rozszerzeń. W BlOS-ach kart rozszerzeń znajdują się pomocnicze procedury i sterowniki BłOS-u wymagane przez daną kartę; są one szczególnie potrzebne na przykład kartom graficznym, które muszą być aktywne już na wczesnym etapie uruchamiania się systemu. Karty, które nie muszą być aktywne podczas uruchamiania się komputera, za-zwyc/aj nic posiadają ROM-u, ponieważ ich sterowniki mogą być załadowane później / twardego dysku. KOM płyty głównej w większości komputerów zawiera cztery główne programy, którymi s;): Tl Power-On SetfTest. Seria procedur poszczególnych komponentów komputera.
testujących
sprawność
ł. Program umożliwiający zmianę parametrów konfiguracji systemu, ustawienie zabe/.piccz.cń oraz preferencji. l-*t'ocedura szukająca możliwego do załadowania systemu operacyjnego najpierw na dyskietce w stacji dysków, a później na twardym dysku. Basic łnput/Output System. Zbiór sterowników stanowiący standardowy interfejs podstawowych urządzeń komputera, szczegótnie tych. które mus/.ą h\e aktywne podczas uruchamiania się systemu. Ponieważ BIOS stanowi więks/ość kodu znajdującego się w ROM-ie, często okreśłamy ROM nazwa ROM BIOS. W starszych komputerach PC. ROM B!OS płyty głównej mógt się składać nawet z pięciu lub sześciu układów, jednak już od wielu !at stosuje się tylko jeden Liktad. Więcej informacji o znajdującym się na płycie głównej ROM-ie możesz znaleźć w ro/d/ialc 4. ,, Płyty główne". Pamięci ROM znajdują się również w kartach rozszerzeń, których sterowniki musza być już aktywne podczas uruchamiania się systemu. Do takich kart nałeżą karty graficzne. więks/osc kart SCSł (Smal) Computer System Interface), karty kontrolerów HH)H ^luiltanced IDE) oraz niektóre karty sieciowe. Znajdujące się w tych kartach układy ROM zawierają sterowniki i programy startowe, które podczas uruchamiania się s\stemu zostam; wywołane prze/. BIOS płyty głównej. Właśnie dzięki temu karta grallczna może /usiać m/po/nana t /ainicjowana. nawet jeśli w ROM B!OS-ie nie ma dedykowanych jej sterowników. Trudno byłoby wgrać sterowniki inicjujące kartę VGA z dysku, ponieważ do momentu inicjacji karty graficznej ekran monitora pozostawałby ciemny. Podc/as uruchamiania stę systemu, BłOS płyty głównej skanuje specjalny obszar pamięci RAM zajmowany przez ROM-y kart rozszerzeń (adresy COOOO-DFFFFh) w poszuki-wanm o/nac/ającego początek ROM-u dwubajtowego podpisu 55AAh. ROM BłOS antomatyc/nic uruchamia wszystkie odnalezione podc/as skanowania ROM-y kart rozsze-!/cn. Proces len wtdac w większości komputerom, gdy - pode/as wykonywania procedur POST-u - inicjowany ics! HIOS karty graficznej. Układy ROM są z natury bardzo wolne, czas dostępu do nich wynosi zazwyczaj około 1 50 ns (więcej informacji na ten temat znajduje się w sekcji Częstotliwości pamięci, w dalszej c/ęsci lego rozdziału), podczas gdy czas dostępu pamięci DRAM mieści się w granicach 60 ns. W związku z tym, w wielu systemach pamięci ROM są f/ewonY;/;^ (/-?()A7 .s7;<;
momentu pamięć ROM nie jest już wykorzystywana. Uzyskany za pomocą cieniowania wzrost wydajności jest jednak często nieznaczny, a w dodatku niepoprawnie skonfigurowane cieniowanie może być źródłem probłemów. Dłatego zazwyczaj najłe-piej jest cieniować tylko BIOS płyty głównej i, być może, karty graficznej, a wszystkie inne BtOS-y pozostawić bez zmian. Przede wszystkim, cieniowanie jest użyteczne tyłko, jeśli pracujesz z ]6-bitowym systemem operacyjnym, jak na przykład z DOS-em czy Windows 3. x. Jeśti pracujesz w 32-bitowytn środowisku, jak Windows 95, Windows 98 czy Windows NT, cieniowanie jest właściwie bezużyteczne, ponieważ te systemy operacyjne nie korzystają z 16-bitowego kodu zawartego w ROM-ach. Zamiast tego, wczytują do pamięci własne, 32-bitowe sterowniki, które zastępują wykorzystywany tytko przy uruchamianiu się komputera Id-hitowy kod ROM-u. Ustawienia cieniowania znajdują się w zawartym w pamięci CMOS programie konfiguracyjnym. Istnieją cztery rożne typy układów ROM: +A'(,W.Pamięć
tylko
Programowalny
do
ROM
odczytu.
.
Wymazywalny
PROM Ełektrycznie wymazywałny PROM, nazywany również pamięcią Hash bb 1'lash ROM. Bez względu na to, jakiego układu pamięci ROM użyjesz, zawarte w nim dane nie będą ulotne i pozostaną bez zmian, o ile celowo się ich nie usunie lub nie nadpisze. W tabeli 7.1 zostały wypisane początki numerów identyfikacyjnych różnych typów pamięci ROM. Tabeta 7.1 Typ układu
Numer
ROM
Nie sąjuż wykorzystywane
PROM
27nnnn
EPROM
27nnnn
EEPRO M
28xxxx !uh 29xx.xx
!nne
Przezroczysta kwarcowa szybka
Odwzorowywane pamięci ROM [Mask ROM] Początkowo większość ROM-ów produkowano z naniesionymi lub zintegrowanymi w matrycy zerami i jedynkami. Matryca przedstawiała rzeczywisty krzemowy układ wraz z zapisanymi danymi. Układy te były nazywane odwzorowywanymi pamięciami ROM, ponieważ dane były formowane we wzór. z której tworzono matrycę ROM-u. Ten sposób produkcji jest ekonomiczny, jeśłi tworzysz setki tysięcy ROM-ów zawierających dokładnie te same dane. Chcąc jednak zmienić choć jeden bit, trzeba było utworzyć nowy wzór, co pociągało za sobą duże koszty. Obecnie nikt już nie korzysta z odwzorowy-\\anych pamięci ROM z powodu ich małej elastyczności i wysokich kosztów produkcji PROM Pamięci PROM nie zawierają żadnych danych po wyprodukowaniu i zanim zacznie się z nich korzystać, muszą zostać zaprogramowane. PROM został wynaleziony w późnych tatach 70. przez firmę Texas Instruments i jest produkowany w wielu pojemnościach, od [ kB (H kb) do 2 MB (16 Mb) i większych. Pojemność może zostać określona za pomocą czterech ostatnich cyfr numeru identyfikacyjnego, w którym pierwsze dwie cyfry (27) oznaczają PROM firmy TI, a cztery kolejne pojemność układu w kb (kilobitach). Przykładowo, w większości wykorzystujących PROM-y komputerów PC umieszcza się układy 275ł2 lub 27łOOO. czyli o pojemności 512 kb (64 kB) lub ł Mb (128 kB). W znajdującym się w moim samochodzie Pontiac Turbo Trans Am komputerze część systemu operacyjnego oraz wszystkie tabele danych, opisujące wyprzedzenie zapłonu [spark advance], dostarczanie paliwa [fuel delivery], a także inne parametry pracy pojazdu i silnika, umieszczono w 32-ki)obitowym (4 kB) układzie PROM 2732. Systemy operacyjne wielu urządzeń ze zintegrowanymi komputerami przechowywane są w PROM-ach. Choć wcześniej napisałem, iż pamięci PROM po wyprodukowaniu są puste, to z technicznego punktu widzenia są one zapełnione binarnymi jedynkami. Innymi słowy, wy-kui/ystywany w nowoczesnych komputerach 1-megabitowy układ ROM posiada milion (dokładnie 1048576) pozycji zawierających binarną jedynkę. Pusty PROM może zostać zaprogramowany poprzez zapisanie na nim danych. Do zapisania danych wymagane jest /azwyc/aj specjalne urządzenie, noszące nazwę programatora ROM (rysunek 7.1). Często mówi się o programowaniu ROM-ów jako o ich ,,wypalaniu", ponieważ jest to dość trafne technicznie określenie tego procesu. O każdej binarnej wartości jeden możesz myśleć jako o nienaruszonym bezpieczniku. Większość układów pracuje z napięciem zasilania wynoszącym 5 V. Podczas programowania, pod różne adresy układu zostaje skierowane napięcie dużo wyższe (najczęściej 12 V), które przepala znajdujące się tam bezpieczniki, przełączając logiczny stan jedynki na zero. Choć możemy zamienić l na O, z pewnością zauważyłeś już, że proces ten jest nieodwracalny; czyli nie możemy zamienić O na 1. Programator analizuje program, który chcesz wprowadzić do układu, a następnie w wymaganych miejscach zamienia wartości l na 0. Układy PROM często są / lęgu powodu nazywane układami jednorazowego programowania OTP (One Time Programmablc). Mogą one zostać zaprogramowane tylko raz i naniesionych zmian nie da się już usunąć. Większość PROM-ów jest niedroga, cena typowego, wykorzystywanego w płytach głównych PROM-u wynosi około 12 zł, więc jeśli chcesz zmienić znajdujący się w nim program, po prostu zastępujesz go nowym zaprogramowanym układem, a uktad poprzedni wyrzucasz. Programowanie pamięci PROM w zależności od pojemności układu i algorytmu wykorzystywanego pr/ez programator trwa od kilku sekund do kilku minut. Na
rysunku 7.1 /ostał przedstawiony typowy, kilkugniazdowy programator układów PROM. Programatory tego typu nazywane są programatorami grupowymi (ang. gang-programmer), ponieważ mogą programować wiele układów jednocześnie, co jest szczególnie przydatne, gdy musisz umieścić ten sam program w wielu PROMach. Tańsze programatory mają tylko jedno gniazdo, co jest zupełnie wystarczające do większości domowych i serwisowych zastosowań. Rysunek 7.1
Osobiście kot/ystam (i zalecam to innym) z tiaprawdę niedrogiego programatora l inny Andi'omeda Rcscaicli. Jest on nie tylko ekonomiczny, ale i można go podłączyć do portu równoległego komputera, dzięki czemu łatwo i szybko przesyła się pliki między nim a komputerem. Urządzenie to jest w dodatku zamknięte w łatwej do przenoszenia obudowie. Programator kontroluje się za pomocą okienkowego programu konfiguracyj-nego. który należy zainstalować na komputerze, do którego jest podłączony. Program konliguracyjny ma wiele użytecznych możliwości, łącznie z funkcjami umożtiwiającymi /granie znajdujących się w układzie PROM danych do pliku na twardym dysku, zaprogramowanie układu PROM danymi z. pliku, porównanie zawartości układu z plikiem w komputer/e ora/, sprawdzenie przed rozpoczęciem programowania, czy umieszczony w programatorze układ jest pusty Za pomocą programatora PROMów przeprogramowałem nawet PROM w swoim samochodzie, zmieniając fabryczne ustawienia ograniczeń szybkości i obrotów silnika, turbosprężarki, kąta wyprzedzenia zapłonu, dostarczania paliwa i jeszcze wielu innych parametrów! Zamontowałem również przełącznik umożliwiający mi wybór jednego z czterech różnych układów podczas jazdy samochodem. Jeden z zaprogramowanych przeze mnie układów odcinał dopływ paliwa po przekroczeniu 36 mil na godzinę i wznawiał, gdy samochód zwalniał do 35. Taka modyfikacja mogłaby być szczególnie przydatna, gdybyś chciał na przykład ograniczyć prędkość, z jaką maksymalnie może jeździć twoje nastoletnie dziecko. Inny stworzony przeze mnie ze względów bezpieczeństwa układ odcinał dopływ paliwa do silnika, gdy zasygnalizowałem, że samochód jest zaparkowany. Bez znaczenia, jak pomysłowy byłby złodziej, nie mógłby ukraść auta, chyba że wziąłby je na hol. Jeśli jesteś zainteresowany urządzeniem zmieniającym układy lub też samymi układami PROM do samochodów Turbo Trans Am lub Buick Grand National, skontaktuj się z firmą Casper's Electronics. Gdy zainstalowałem układ Superchips w samochodzie Ford Explorer, natychmiast zauważyłem olbrzymią różnicę w pracy silnika i wydajności pojazdu.
EPROM Pamięci HPROM są popularną odmianą pamięci PROM. Nie są one niczym innym jak pamięciami PROM. ale /. możliwością wymazania zaprogramowanych danych. Układ EPROM można bardzo łatwo rozpoznać, ponieważ w obudowie bezpośrednio nad matrycą /ttajdtiic się pr/c/roc/ysta kwarcowa szybka, przez którą możesz zobaczyć matrycę. Pamięci EPROM mają taki sam jak PROM-y pretlks numerów identyfikacyjnych (27xxxx) i mc lic/.ąc kwarcowej szybki, są fizycznie oraz funkcjonalnie takie same. U/ięki /najdującej w obudowie układu szybce, do matrycy może się dostać promieniowanie ultrafioletowe, którym są \\ \mazywane układy EPROM. Szybka jest wykonana / kwarcu, ponieważ zwykłe s/.kło blokuje promieniowanie UV. Nie można się opalić pi/e/. s/ybc! Komee/ność zastosowania kwarcowej szybki spowodowała, że układy EPROM są dro/s/.e od układów PROM. Jeśli jednak możłiwość wymazywania nie ma dla ciebie /nac/cnia, nie musisz ich kupować. Promieniowanie UV wywołuje reakcję chemiczną, w której ponownie stapiają się ze sobą znajdujące się w układzie bezpieczniki, dzięki czemu zostają wymazane wszystkie /naiduiącc się w nim dane. W wywołanej przez promieniowanie UV reakcji wszystkie binarne /eta /nów stają się jedynkami i układ zostaje przywrócony do stanu sprzed programowania. Aby /as/ta reakcja chemiczna, promieniowanie UV musi mieć określoną Jlurość (2537 angstremów). odpowiednią intensywność (ł2000 uw/cm*), a także musi działać z niewielkiej odtegłości (2-3 cm) przez około 5 do 15 minut. W urządzeniu do s/ybkiego wymazywania EPROM-ów (patrz rysunek 7.2) źródło promieniowania UV (iiajc/ęściej specjalna żarówka) znajduje się nad uszczelnioną szufladką, w której umieszczasz jeden lub więcej układów EPROM. Rysunek 7.2.
Na rysunku 7.2 zostało przedstawione profesjonalne urządzenie do wymazywania EPROM-ów, które jednorazowo może wymazywać do 50 układów. Ja korzystam ze /nać/nie mniejs/ego i tańszego urządzenia firmy Walling Co. o nazwie DataRase. Urzą-d/eine to \\ y ma/uje jednorazowo do czterech układów i jest ekonomiczne, jak również pi/enośne. Kwarcowa szybka znajdująca się w obudowach układów EPROM jest zazwyczaj zabezpieczona za pomocą taśmy przed przypadkowym wystawieniem na promieniowanie ultrafioletowe. Promieniowanie UV występuje nie tylko w świetłe słonecznym, ale i nawet w zwykłym oświetłeniu pokojowym, w związku z czym dane zawarte w układzie wystawionym na bezpośrednie światło szybko mogłyby ulec uszkodzeniu. Dlatego dobrym nawykiem jest zabezpieczanie za pomocą aklejki zaprogramowanych układów.
EEPROM/F!ash ROM EEPROM jest nowszym typem ROM-u, jego nazwa jest skrótem od ,,Etektrycznie wy-mazywatny PROM" (ang. Eiectrically Erasabte PROM). Układy te są również nazywane pamięcią Flash lub po prostu Flash ROM; ich najważniejszą cechą jest możłiwość wymazania i ponownego zaprogramowania bez żadnych dodatkowych urządzeń. Dzięki pamięciom Flash stało się możliwe wymazanie i przeprogramowanie ROM-u komputera PC bez wyjmowania układu z podstawki na płycie głównej, a nawet bez zdejmowania obudowy! Gdy korzystasz z pamięci Flash, do jej ponownego zaprogramowania nie potrzebujesz ani programatora, ani urządzenia wymazującego. Pamięci Flash są wykorzystywane nie tytko we wszystkich właściwie płytach głównych wyprodukowanych po !994 roku, ale i w większości zbudowanych od tego czasu samochodach. Na przykład mój Chevy Impala SS z 1994 r. posiada PCM (Powertrain Controt Module) ze zintegrowaną pamięcią Flash Pamięci EEPROM można zidentyfikować po numerze identyfikacyjnym, który jest /godny ze wzorem 28xxxx łub 29xxxx, oraz po braku kwarcowej szybki w obudowie. Jeśli w twoim komputerze zastosowano pamięci Flash, będziesz mógł łatwo uaktuatnić ROM płyty głównej bez konieczności wymiany posiadanych układów. Zazwyczaj po prostu zgrywasz ze strony WWW producenta uaktualniony ROM i uruchamiasz dołączony program, który zastępuje stare dane nowymi. Procedura ta została bardziej szczegółowo opisana w rozdziale czwartym. tt Patrz, „instalacja w komputerze nowszej wersji ROM BIOS", str. 479 i 485 Częste sprawdzanie, czy na stronie WWW producenta płyty głównej nie pojawił się uaktualniony B!OS, jest bardzo dobrym nawykiem. Uaktualniony BIOS może już nie zawierać błędów oraz posiadać niedostępne wcześniej możliwości. Na przykład w nowym BlOS-ie może się znajdować poprawka niwelująca ewentualny problem roku 2000 oraz nowe sterowniki umożliwiające uruchomienie komputera ze 120-megabajtowej stacji dysków LS-120. M Patrz. „Napędy Floptical LS-120 (120MB)", str. 8ł7 Obecnie w wielu zintegrowanych z różnymi urządzeniami komputerach stosuje się pamięci flash. Być może już w najbliższej przyszłości będziesz poszukiwał uaktuałnionego ROM-u do, na przykład, swojego tostera! W rozdziale czwartym został dokładnie opisany sposób poszukiwania i uaktualniania pamięci flash ROM płyt głównych komputerów PC. Inne urządzenia również mogą posiadać pamięci flash - ostatnio na przykład uaktualniłem Jeśli masz samochód z wbudowanym komputerem, również możesz zaktualizować znajdujący się w nim BIOS, o ile tylko producent samochodu zaprojektował uaktualnioną wersję. Uaktualnienie ROM-u jest obecnie tak łatwe i tanie, iż często się zdarza, że producenci samochodów udostępniają nową wersję ROM-u, która zawiera poprawki usprawniające pracę samochodu lub po prostu usuwające problemy wynikające z poprzedniej wersji ROM-u. Nowe ROM-y są zazwyczaj dostępne u dealera danego samochodu, jego więc musisz zapytać, czy producent zaprojektował uaktualnioną wersję. Jeśli posiadasz samochód GM, firma ta ma swoją stronę WWW, na której umieszcza informacje o nowych wersjach BIOS-u dostępnych dla ich samochodów. Strona ta znajduje się pod poniższym adresem: http://207.74.147.14/vci Gdy wprowadzisz swój VIN (numer identyfikacyjny pojazdu), na stronie ukaże się
historia kalibracji samochodu, która jest listą wszystkich uaktualnień ROM-u (kalibracji) zaprojektowanych od chwili powstania pojazdu. Gdy na przykład wprowadziłem numer identyfikacyjny mojego Impala z 1994 r., okazało się, że od momentu powstania samochodu producent zaprojektował już pięć kalibracji pamięci Flash, a w moim samochodzie znajdowała się tylko druga wersja. Oznaczało to, że powstały już trzy wersje nowsze od tej, którą wtedy posiadałem! Uzbrojony w tę informację udałem się do dealera, który podłączył do mojego samochodu swój komputer diagnostyczny i zaprogramował PCM nowym oprogramowaniem, co w moim przypadku poprawiło wiele mniejszych i większych niedociągnięć, łącznie z występującą w pewnych okolicznościach nierówną pracą silnika. Zastosowanie w samochodzie pamięci Flash dało mi możliwość eksperymentowania z kalibracjami przeznaczonymi do innych samochodów, dzięki czemu w pamięci Flash mojego samochodu znajduje się obecnie zmodyfikowany ROM przeznaczony do samochodu Camaro. W zaprojektowanej dla Camaro kalibracji ustawiono znacznie bardziej agresywne parametry krzywej wyprzedzenia zapłonu oraz dostarczania paliwa, jak również zmian biegów i wielu innych cech. Jeśli jesteś zainteresowany posiadaniem innego programu w pamięci Flash twojego samochodu, skontaktuj się z firmą Wright Automotive lub Evergreen Performance. ROM swojego modemu łSDN Motoroli oraz cyfrowej kamery Kodaka. Uaktualnienie pamięci flash było bardzo łatwe do przeprowadzenia (wystarczyło zgrać uaktualniony ROM ze strony WWW producenta i uruchomić dołączony do niego program), a wyeliminowało wiete różnych dziwactw obu urządzeń. Pamięci flash wykorzystuje się również do zwiększania możtiwości sprzętu znajdującego się już na rynku oraz do przystosowywania go do najnowszych standardów. Przykładem może tu być uaktualnienie standardu komunikowania się modemu z X2 lub Kflex do V.90. DRAM W nowoczesnych komputerach najczęściej wykorzystuje się dynamiczne pamięci RAM. Największą przewagą DRAM nad innymi pamięciami jest jej duża gęstość, dzięki której w jednym niewielkim układzie można umieścić znacznie więcej bitów, ora/ hardzo niska cena, umożliwiająca produkcję układów pamięci o dużej pojemności. Komórki pamięci DRAM są niewielkimi kondensatorami przechowującymi ładunki oznaczające bity. Problemem jest tu dynamiczność DRAM - pamięci te muszą być stale ponieważ przy braku odświeżania zanikłyby przechowywane w poszczególnych komórkach ładunki elektryczne, co spowodowałoby utratę zgromadzonych w nich danych. Odświeżanie następuje, gdy systemowy kontroler pamięci zarząd/a małą przerwę, podczas której odczytuje wszystkie dane zawarte w poszczególnych komórkach. Kontroter pamięci (zazwyczaj wbudowany w chipset płyty głównej) jest w większości systemów ustawiony zgodnie z wynoszącym 15fis (mikrosekund) fabrycznym standardem częstotliwości odświeżania. Dostęp do pamięci jest zorganizowany \v taki sposób, że po dokładnie 128 cyklach zostaną odczytane wszystkie wiersze pamięci. Czyli inaczej mówiąc, odświeżenie danych następuje po każdych 1,92 ms (milisekundy lub l2H^)5)as). Niestety, odświeżanie pamięci zabiera procesorowi wiele cykli. W starszych komputerach cykle odświeżania mogły zająć nawet 10 lub więcej procent czasu procesora. Na szczęście. w obecnie produkowanych systemach, w których procesory pracują z często ttiwościami rzędu setek megaherców, odświeżanie zajmuje najczęściej nie więcej niż 1% czasu procesora. W BlOS-ach niektórych komputerów masz możliwość zwiększenia czasu pomiędzy kolejnymi odświeżeniami pamięci, co przyśpiesza działanie komputera, ale i zarazem może
prowadzić do losowego występowania tzw. miękkich błędów pamięci. \liekki błąd jest błędem danych, który nie został spowodowany przez uszkodzony ttktad pamięci. Dlatego tępiej zazwyczaj pozostać przy zalecanych lub standardowych ustawieniach odświeżania pamięci. Tym bardziej zresztą, że w nowoczesnych komputerach odświeżanie /abicra tylko około 1% całkowitej wydajności systemu, czyli siłą rzeczy, zwiększanie czasu odświeżania będzie miało bardzo niewielki wpływ na osiągi komputera. W pamięciach DRAM bit jest tytko jedną parą tranzystora i kondensatora, dzięki czemu pamięci te mają bardzo dużą gęstość. Dzięki takiemu rozwiązaniu, można produkować układy DRAM o pojemności większej, niż było to możliwe z innymi układami pamięci, istnieją już układy DRAM o pojemności ponad 256 Mb. Kości o tej pojemności zawierają co najmniej 256 milionów tranzystorów! W porównaniu z tym, nieszczególnie wypadają na\\ct procesory Pentium II, które przecież posiadają ich tylko 7,5 miliona. Różnica polega na tym, iż pary tranzystorów i kondensatorów w pamięciach są ułożone w prosty (zazwyczaj kwadratowy), powtarzający się układ, podczas gdy struktury znajdujące się w procesorze są nie tylko znacznie bardziej różnorodne i skompHkowane, ale i w równie skomplikowany sposób ze sobą połączone. Co najmniej jeden z producentów pracuje obecnie nad pamięciami wykonywanymi w technologii 0.05 mikrona, o gęstości 256 gigabitów, które mają trafić do seryjnej produkcji około roku 2001-2002. Oznacza to, iż pojemności pamięci nadal będą rosły w tempie równym temu, w jakim Pamięci DRAM wykorzystuje się w komputerach PC z powodu ich niskiej ceny oraz możliwości gęstego upakowania kości, dzięki czemu na niedużej przestrzeni można /gromadzić dużą pojemność pamięci. Niestety, układy DRAM są również woine, /a/\vyc/aj dużo wolniejsze od procesora. Z tego powodu powstało wiełe różnych architektur pamięci DRAM, zaprojektowanych z myśłąo poprawie wydajności. Szybkość pamięć! S/yhkosc i \\\da]ność pamięci jest dość myłącym zagadnieniem, ponieważ najczęściej \vyia/a stę ją w ns (nanosekundach). podczas gdy szybkość (częstotliwość pracy) pro-l \\ytaża[)a \v megaticrcach. Natiosckunda jest jedną miliardowa, częścią sekundy - to naprawdę bardzo niewiele. By ujrzeć to we właściwej perspektywie, wystarczy uzmysłowić sobie, iż światło prze-ittics/c/ającc się w próżni, którego szybkość poruszania się wynosi 299792 km na sekundę, w czasie jednej nanosckundy przemieści się tytko o 29,98 cm, czyli o mniej niż długość pr/ccięttiej linijki! Szybkość (częstotliwość) pracy systemu i układów wyrażana jest w megahercach (MHz). czyli milionach cykli na sekundę. Już obecnie można się spotkać z procesorami pracującymi / c/ęstotliwośctami r/.ędu 500 MHz; procesory pracujące z częstotliwościami gigaherców (GHz lub miliardów cykti na sekundę) pojawią się na rynku w ciągu najbliższych kilku !at. Ponieważ mówienie o szybkości w różnych jednostkach jest dość mylące, pomyślałem, iż porównanie ich może być bardzo interesujące. W tabeli 7.2 zostały pokazane zależności pomiędzy nanosckundami (ns) a megahercami (MHz). Jak wynika z tabeti, w miarę zwiększania się częstotliwości pracy zegara mateje czas cyktu pamięci. Jeśti dokładniej przyjrzysz się tabeli, z całą pewnością zauważysz, iż s/yhkosc pamięci DRAM /upchiic nie przystaje do szybkości obecnych procesorów, pracujących z częstotliwościami nawet powyżej 400 MHz. Jeszcze do niedawna większość wykor/ysi\wanych w komputerach PC pamięci DRAM miała czas dostępu rzędu M) ns. co odpowiada wartości około 16,7 MHz! Różnica pomiędzy wydajnością pamięci a procesora jest szczególnie widoczna, gdy tak wolne pamięci są instalowane w komputerze, którego procesor pracuje z częstotliwością 300 lub więcej megaherców. taktowainc pamięci icst jednak rzeczą bardziej skomplikowaną od prostego
przeliczania nanosckund na mcgaherce. Ponieważ tranzystory bitów pamięci pracują najbardziej efektywnie, gdy są ułożone w siatkę, dostęp do każdego z nich odbywa się za pomocą schematu wiersza i kolumny. Przed każdym odczytaniem lub zapisaniem danych, należy podać adres wiersza i kolumny komórki pamięci, która ma zostać odczytana lub w której mają się znaleźć dane. Początkowy etap transferu danych z pamięci i do niej, w którym wybiera się adresy wierszy i kolumn, przyjęło się nazywać ^/wj/;«:wrw (!a-iciic\t. C/as dostępu do pamięci jest sumą czasu cyklu oraz opóźnienia. Na przykład pamięć o dostępie 60 ns ma zazwyczaj opóźnienie rzędu 25 ns, a czas cyklu wynoszący około 33 ns. W związku z tym, rzeczywista częstotliwość taktowania 60-nanosekun-dowej pamięci wynosi 28,5 MHz (35 ns = 28,5 MHz). Jednak nawet wtedy każdy transfer pamięci będzie nadal wymagał pełnych 60 ns i z powodu dodawanego opóźnienia częstotliwość kolejnych transferów będzie wynosić tylko 16,7 MHz (60 ns). (A) następuje, gdy pracujący z częstotliwością 300 MHz procesor usiłuje odczytać \viclc bajlo\v danych z 16-megahercowej pamięci? Odpowiedź łatwo przewidzieć - mnóstwo cykli oczekiwania (ang. wait states). CyM of-yAńtwiM jest dodatkowym cyklem, w którym procesor nie wypełnia żadnej instrukcji, a który musi wykonać podczas oczekiwania na dane. Jeśli każdy cykl pamięci trwa 60 ns (i6 MHz), a cykl procesora - 3 ns (300 MHz), procesor czekając na dane będzie musiał wykonać około 19 cykli oczekiwania! Dodawanie w ten sposób cykli oczekiwania dość skutecznie zwalnia szybkość przetwarzania do szybkości pamięci, czyli w tym wypadku 16 MHz. Z tego powodu powstało wiele szybszych pamięci systemowych i podręcznych, mających zredukować liczbę cykli oczekiwania. W tym rozdziale zostanie omówiona każda z nich. FPM (Fast Page Modę) DRAM Dostęp do standardowych pamięci DRAM odbywa się poprzez ^roN;'ć'owa/n'ć' (ang. paging). Zwykłe odczyty i zapisy danych w pamięci wymagają wybrania wiersza i kolumny, co zabiera trochę czasu. Stronicowanie polega na udostępnianiu komórek z tego samego wiersza, dzięki czemu należy zmieniać tylko adres kolumny. Wykorzystująca ten sposób dostępu pamięć jest nazywana PM (Page Mo^) tub FPM fF^yf P<:igŁ' Mo^j. Istnieją również inne wersje pamięci FPM, nazywane pamięcią SC (Static Column) tub pamięcią NM (Nibbte Modę). jest prostym sposobem zwiększenia wydajności pamięci, poprzez podzielenie jej na strony mające długość od 512 bajtów do kilku kilobajtów. Dostęp do wszystkich komórek wewnątrz strony jest dzięki mechanizmom stronicowania szybszy o wie)e cyk)i oczekiwania. Jeśli docelowa komórka pamięci znajduje się poza aktualnie wybraną stroną, procesor musi odczekać kilka dodatkowych cykti, aż do chwili gdy system wybierze nową stronę. W miarę upływu czasu wymyślano coraz to nowe sposoby uzyskiwania szybszego dostępu do pamięci DRAM. Jedną z najbardziej znaczących zmian była impłementacja w procesorach 486 i późniejszych seryjnego trybu dostępu (ang. burst modę). W seryjnym taktowaniu pamięci wykorzystano fakt, iż kolejne dostępy do niej dotyczą najczęściej kmnórek położonych błisko siebie. Dzięki wykorzystaniu trybu seryjnego, po ustałeniu wiersza i kolumny komórki pamięci, można bez żadnych dodatkowych cykli oczekiwania czy opóźnień uzyskać dostęp do komórek sąsiednich. Dostęp seryjny jest zazwyczaj ograniczony do czterech kolejnych odczytów/zapisów. Dlatego taktowanie opisuje się często liczbami cykli potrzebnymi na uzyskanie kolejnych dostępów. Typowe taktowanie pamięci DRAM w trybie seryjnym jest zazwyczaj wyrażane w postaci x-y-y-y, gdzie x jest czasem pierwszego dostępu (sumy opóźnienia i czasu cyklu), a y liczbą cykli potrzebnych do uzyskania każdego z kolejnych dostępów. Standardowe, 60-nanosekundowe pamięci DRAM są w trybie seryjnym taktowane zgodnie ze schematem 5-3-3-3. Oznacza to, że uzyskanie pierwszego dostępu do pamięci zajmie w sumie pięć cykli (przy 66-megahercowej magistrali systemowej czas uzyskania pierwszego dostępu wyniesie około 75 ns tub inaczej pięciu cykli po 15 ns), a każdy kolejny dostęp serii zajmie po trzy cykle (3 x 15 ns = 45 ns). Jak
widać, uzyskane czasy dostępu do pamięci są niższe, niż wynikałoby to z samej specyfikacji pamięci. Zwróć jednak uwagę, że bez wykorzystania trybu seryjnego dostęp do pamięci odbywałby się zgodnie ze schematem 5-5-5-5, ponieważ przy przeprowadzaniu każdego transferu do i z pamięci występowałoby pełne opóźnienie. Układy DRAM obsługujące stronicowanie i dostęp seryjny są nazywane p<2MM'ęc;'q FPM (FćMf Page Moć/f). Nazwa ta wynika z tego, że w trybie seryjnym dostępy do znajdujących się na tej samej stronie pamięci danych są uzyskiwane z mniejszym opóźnieniem. W większości komputerów 486 i nowszych wykorzystano układy FPM; w starszych komputerach stosowano standardowe pamięci DRAM. Innym sposobem na przyśpieszenie pamięci FPM jest pr^ W trybie dostępu przeplatanego, dwa osobne banki pamięci są odczytywane naprzemiennie. Gdy w jednym z banków trwa odczyt lub zapis danych, w drugim wybiera się w tym samym czasie wiersz i kolumnę komórki. Dzięki temu, gdy pierwszy bank kończy przekazywanie danych, drugi zakończył już okres opóźnienia i jest gotowy do kolejnego transferu. W czasie gdy w drugim banku trwa przesyłanie danych, w pierwszym banku wybierany jest wiersz i kolumna komórki pamięci, od której rozpocznie się kolejny dostęp. Jedynym problemem jest to, że aby skorzystać z dostępu przeplatanego, musisz obsadzić dokładnie takimi samymi kośćmi dwa banki na płycie głównej. Było to bardzo popularne rozwiązanie w systemach z 32bitową pamięcią i procesorami 486, de szybko straciło uznanie po ukazaniu się komputerów z procesorami Pentium, które posiadały pamięci 64-bitowe. By móc skorzystać z techniki przeplatania w komputerach Pentium, musiałbyś zainstalować jednocześnie 128 bitów pamięci, czyłi ałbo cztery 72-końcówkowe pamięci SIMM, ałbo dwa moduły DIMM. EDO RAM W 1995r pojawił się nowy typ pamięci dła systemów z procesorami Pentium, nazwany EDO fEWć-HcM Da;a Oi;f) /MM. Pamięć EDO to zmodyfikowana pamięć FPM i z tego powodu bywa nazywana również pawnęr;q WAf fA/y/;w fogć' Mc6^J. Pamięć EDO została wynak/inna i opatentowana przez firmę Micron Technology, która udziełiia licencji na jej produkcję wiełu innym producentom. EDO składa się ze specjalnie wyprodukowanych układów, które pozwalają na zazębianie się taktowań pomiędzy udanymi dostępami. Skrót EDO odnosi się przede wszystkim do tego, iż w przeciwieństwie do pamięci FPM, sterowniki wyjścia danych na układzie nie są wyłączane, gdy kontroler pamięci usuwa adres kolumny w celu rozpoczęcia kolejnego cyklu. Dzięki temu kolejny cykl może nastąpić zaraz za poprzednim, co umożiiwia zaoszczędzenie na każdym cyklu około 10 ns. Ponieważ układy EDO umożliwiają kontrołerowi pamięci rozpoczęcie instrukcji adresowania nowej kolumny jeszcze podczas odczytywania danych pod aktualnych adresem, czasy cykłi uległy znacznemu skróceniu. Rozwiązanie to jest bardzo podobne do przeplatania banków w starszych systemach, ate w przeciwieństwie do przeplatania, by z niego skorzystać, nie musisz posiadać dwóch identycznie obsadzonych banków pamięci. EDO RAM w trybie seryjnym umożliwia zastosowanie taktowania zgodnego ze schematem 5-2-2-2. czyli lepszym od osiąganego przez układy FPM schematu 53-3-3. Oznacza to, że pamięci EDO w ciągu 11 cykłi systemowych mogą wykonać cztery transfery danych, natomiast pamięci FPM do tego samego zadania potrzebują 14 cykli. Choć czas potrzebny na wykonanie transferów został zmniejszony o 22%, pamięci EDO /azwyczaj zwiększają ogółną wydajność systemu o około 5%. Nawet jeśli uzyskany wzrost wydajności wydaje się niewielki, warto zauważyć, iż pamięci EDO bazują na tym samym podstawowym układzie DRAM co pamięci FPM, a to oznacza, że koszt ich produkcji praktycznie nie różni się od kosztu produkcji układów FPM. Dzięki temu układy EDO kosztują niemal tyle samo co układy FPM, a oferują wyższą wydajność
Pamięci EDO mogą zostać wykorzystane tylko pod warunkiem, że obsługuje je chipset płyty głównej. Większość chipsetów powstałych od roku 1995, kiedy na rynku ukazał się chipset 430FX (Triton), obsługuje układy EDO. Dzięki porównywalnym z pamięciami FPM kosztom wytwarzania oraz obsługiwaniu przez chipsety Inteła, rynek bardzo v\ hko całkowicie przerzucił się na kości EDO. M Patrz „Chipsety piątej generacji (P5)", str. 349 tt Patrz ,,Chipsety szóstej generacji (ktasy Pentium Pro/Pentium II)", str. 363 Układy EDO są ideałnym rozwiązaniem dla systemów z magistrałą pracującą do 66 MHz, co do roku 1997 w zupełności zaspokajało potrzeby rynku. Jednak w 1998 r. na rynku pojawiły się nowsze i szybsze pamięci SDRAM (Synchronous DRAM), które wkrótce stały się nowym standardem pamięci komputerów PC. Burst EDO Mewłoły), których specjalny tryb seryjny umożliwia uzyskanie jeszcze s/ybs/ych transferów pamięci. Niestety, obsługiwał je tyłko jeden chipset (Inteł 440FX Natoma) i zostały szybko wyparte przez układy SDRAM, faworyzowane przez projektantów chipsetów i systemów PC. Pamięci BEDO nie są już produkowane i nie spotyka się ich w obecnie sprzedawanych komputerach. SDRAM SDRAM jest skrótem od Synchronous DRAM, czyłi pamięci, która działa synchronicznie /. magistralą. SDRAM przekazuje informacje za pomocą bardzo szybkiego potoku, wykorzystując s/ybki, taktowany interfejs. Dzięki zastosowaniu pamięci SDRAM znacząco /tnntcj.s/a się opóźnienie, ponieważ układy te są już zsynchronizowane x częstottiwo-ścią pracy płyty głównej. /.ani m będziesz mógł zainstałować układy SDRAM w komputerze, podobnie jak pamięci EDO, muszą być one obsługiwane przez chipset płyty głównej. Od początku 1997 r. ws/.ystkie chipsety Intcla. wrą/. z chipsetami 430VX i 430TX, w pełni obsługują SDRAM, co czyni te układy najpopularniejszymi pamięciami na rynku nowych komputerów. Pamięci SDRAM są przede wszystkim dostosowane do architektury procesorów Pentium II oraz nowych płyt głównych, na których można te procesory umieszczać. Osiągana pr/e/ SDRAM wydajność jest o wiele większa od wydajności pamięci FPM i EDO. Ponieważ SDRAM jest jedną z odmian DRAM, początkowe opóźnienie jest takie samo, ale /.a to całkowite czasy cykli są znacznie krótsze od wcześniejszych pamięci FPM i EDO. Taktowanie SDRAM podczas dostępu seryjnego jest zgodne ze schematem 5-1-1-1; czyli 4 transfery pamięci zakończą się już po 8 cyklach. Pamięci EDO potrzebowały na wykonanie tej samej operacji 1 1 cykli, a pamięci FPM aż 14. SDRAM poza możliwością pracy ze znacznie krótszymi cyklami obsługuje również 100-megahercowe (10-nanosek-undowe) i szybsze magistrale, które w 1998 roku stały się nowym standardem częstotłiwości pracy magistral systemowych. Dzięki temu, w praktycznie wszystkich sprzedanych w 1998 r. komputerach wykorzystano właśnie te pamięci i bard/o prawdopodobne jest, iż układy te utrzymają się na rynku jeszcze do końca roku 2000. 1'rawdopodobnie w niedalekiej przyszłości pamięci SDRAM będą mogły pracować na nawet 200-megahercowych i szybszych magistralach. SDRAM są sprzedawane w formie DIMM. a ich szybkość często określa się nie w nanosekundach, lecz w megahercach. Z tego powodu możesz natknąć się na takie same pamięci sprzedawane jako 66 MU/ lub 15 ns, 83 MHz lub 12 ns czy też 100 MHz lub 10 ns. Z powodu bardzo szybkich taktowań pamięci podczas pracy z częstotliwością 100 MHz, Intel stworzył standard PC/100, w którym /.definiował wymagania, jakie
muszą spełnić układy pamięci, by pozostawały stabilne przy częstotliwości taktowania wynoszącej 100 MHz. Większość painięci z certyfikatem PC/100 ma w celu zachowania odpowiedniego marginesu błędu czas dostępu 8 ns, czyli może pracować z częstotliwością 125 MHz. Jednak nawet jeśii uktady te mogą pracować z takimi częstotliwościami, oficjalnie posiadają wyłącznie certyfikat PC/100. Choć 10-nanosekundowe pamięci również mogłyby działać z częstotliwością 100 MHz, Intel stwierdzi), że z powodu zbyt małego marginesu błędu mogłyby nie być stabilne. Pomimo iż SDRAM jest znacząco szybszy od poprzednich typów pamięci, nie jest od nich dużo droższy, dzięki czemu jeszcze szybciej wzrosła jego popularność. M Patrz „Fizyczna pamięć komputera", str. 396
Przyszłe technołogie pamięci DRAM RDRAM RDRAM, nazywany również Rambus DRAM, jest pamięcią opartą na zupełnie nowych ro/\\m/aniach, która początkowo, w latach 1999-2000, ma się znaleźć tylko w komputerach o największej mocy. RDRAM jest wspierany przez Intel i będzie bezpośrednio obsługiwany przez wszystkie jego chipsety. RDRAM, dzięki podwojeniu znajdującej się w układzie magistrali danych do 16 bitów i zwiększeniu częstotliwości pracy do 800 MHz, przyśpiesza przepustowość samej pamięci, umożliwiając uzyskanie szczytowo przepustowości rzędu 1,6 GB/s. Rambus wprowadził również uaktualnienia w protokole magistrali, dzięki czemu dane nie muszą być mutlipleksowane. Zamiast tego utworzono niezależną kontrolę, a magistralę adresową podzielono na dwie grupy końcówek, osobno na polecenia kolumn i osobno na polecenia wierszy. Dane w tych końcówkach przesyłane są za pośrednictwem 2-bitowych magistral. Synchronizację osiąga się dzięki wysyłaniu pakietów na opadającej krawędzi sygnału zegara. Architektura RDRAM-u obsługuje wielokrotne, jednocześnie przeplatane transakcje. Wewnętr/nie, 64-bitowe urządzenie korzysta z w sumie 128-bitowej ścieżki danych, która pracuje z częstotliwością łOO MHz, i umożliwia wykonywanie 16-bajtowych transferów z rdzenia i do niego co 10 ms. Ponieważ układy RDRAM posiadają cztery tryby oszczędzania energii i automatycznie przełączają się w tryb uśpienia po zakończeniu transakcji, pobierają nieco mniej energii od układów SDRAM i mniej więcej tyle samo, co pamięci EDO zaprojektowane z myślą o komputerach przenośnych. Układy RDRAM będą instalowane w modułach nazywanych RIMM (Rambus Minę Memory Modules). RIMM (pokazany na rysunku 7.3) ma podobną wielkość i wygląd do aktualnie używanych DIMM-ów, ale nie jest z nimi kompatybilny na poziomie wyprowadzeń.
czas dostępu 8 ns, czyli może pracować z częstotliwością 125 MHz. Jednak nawet jeśli układy te mogą pracować z takimi częstotliwościami, oficjalnie posiadają wyłącznie certyfikat PC/100. Choć 10nanosekundowe pamięci również mogłyby działać z częstotliwością 100 MHz, Intel stwierdził, że z powodu zbyt małego marginesu błędu mogłyby nie być stabilne. Pomimo iż SDRAM jest znacząco szybszy od poprzednich typów pamięci, nie jest od nich dużo droższy, dzięki czemu jeszcze szybciej wzrosła jego popularność. II Patrz „Fizyczna pamięć komputera", str. 396
Przyszłe technologie pamięci DRAM RDRAM RDRAM, nazywany również Rambus DRAM, jest pamięcią opartą na zupełnie nowych rozwiązaniach, która początkowo, w latach 1999-2000, ma się znaleźć tylko w komputerach o największej mocy. RDRAM jest wspierany przez Intel i będzie bezpośrednio obsługiwany przez wszystkie jego chipsety. RDRAM, dzięki podwojeniu znajdującej się w układzie magistrali danych do 16 bitów i zwiększeniu częstotliwości pracy do 800 MHz, przyśpiesza przepustowość samej pamięci, umożliwiając uzyskanie szczytowo przepustowości rzędu 1,6 GB/s. Rambus wprowadził również uaktualnienia w protokole magistrali, dzięki czemu dane nie muszą być mutlipleksowane. Zamiast tego utworzono niezależną kontrolę, a magistralę adresową podzielono na dwie grupy końcówek, osobno na polecenia kolumn i osobno na polecenia wierszy. Dane w tych końcówkach przesyłane są za pośrednictwem 2-bitowych magistral. Synchronizację osiąga się dzięki wysyłaniu pakietów na opadającej krawędzi sygnału zegara. Architektura RDRAM-u obsługuje wielokrotne, jednocześnie przeplatane transakcje. Wewnętrznie, 64-bitowe urządzenie korzysta z w sumie 128bitowej ścieżki danych, która pracuje z częstotliwością 100 MHz, i umożliwia wykonywanie 16-bajtowych transferów z rdzenia i do niego co 10 ms. Ponieważ układy RDRAM posiadają cztery tryby oszczędzania energii i automatycznie przełączają się w tryb uśpienia po zakończeniu transakcji, pobierają nieco mniej energii od układów SDRAM i mniej więcej tyle samo, co pamięci EDO zaprojektowane z myślą o komputerach przenośnych. Układy RDRAM będą instalowane w modułach nazywanych RIMM (Rambus Inline Memory Modules). RIMM (pokazany na rysunku 7.3) ma podobną wielkość i wygląd do aktualnie używanych DIMM-ów, ale nie jest z nimi kompatybilny na poziomie wyprowadzeń.
Rysunek 7.3. 128-końcówkowy modni RIMM
Kontroler pamięci RDRAM z pojedynczym kanałem Rambus obsługuje do trzech modułów RIMM, które dzięki gęstości 64 Mb na układ umożliwiają tworzenie RIMM-ów o pojemności 256 MB. Przyszłe wersje układów RIMM będą miały większe pojemności, nawet powyżej l GB. Możliwe będzie również projektowanie chipsetów obsługujących więcej kanałów Rambus, co umożliwi instalowanie na płycie większej liczby gniazd RIMM. Co ciekawe, Rambus nie produkuje ani układów RDRAM, ani modułów RIMM - to zadanie pozostawia innym firmom. Rambus jest przede wszystkim firmą projektującą technologie i nie posiada własnych fabryk układów ani hal produkcyjnych. Firma ta udziela licencji na opracowaną przez siebie technologię innym firmom, które wytwarzają urządzenia i moduły. Licencję na wytwarzanie pamięci RDRAM posiada już co najmniej 13 firm: Fujitsu Ltd., Hitachi Ltd., Hyundai Electronics Industry Co. Ltd., IBM Microelectronics, LG Semiconductor Co. Ltd., Micron Technology Inc., Mitsubishi Electric Corp., NEC Corp., Oki Electric Industry Co. Ltd., Samsung Electronics Corp., Siemens AG oraz Toshiba Corp. Wszystkie te firmy będą produkować zarówno RDRAM-y, jak i zawierające je RIMM-y. DDR SDRAM Pamięć DDR (Double Data Ratę) SDRAM jest rozwinięciem projektu standardowych układów SDRAM, w którym dane przesyłane są z dwa razy większą szybkością. Poza zwiększeniem częstotliwości taktowania, pamięci DDR osiągają podwojenie wydajności dzięki wykonywaniu dwóch transferów podczas jednego taktu zegara. Pierwszy z transferów jest wykonywany na rosnącym, a drugi - na opadającym zboczu cyklu. Dzięki temu zostało uzyskane podwojenie szybkości transferu przy wykorzystaniu tej samej częstotliwości i tych samych sygnałów. AMD i Cyrix, jak również producenci chipsetów VIA Technologies, Ali (Acer La1" i SiS :(Silicon integrated Systems) proponują pamięci DDR jako tanią konieczności posiadania licencji alternatywę RDRAM-ów. Według o f , wiedzi, Intel ma zamiar obsługiwać tylko pamięci RDRAM, pozosta\ st tańszym i mniej wydajnym komputerom. Ciężar oficjalnej standaryzacji układów DDR wzięło na siebie DDR Consortium, w którego skład wchodzi zespół ekspertów firm Fujitsu Ltd., Hitachi Ltd., Hyunday Electronics Industries Co., Mitsubishi Electric Corp., NEC Corp, Samsung Electronics Co., Texas Instruments oraz Toshiba Corp. Pamięci DDR SDRAM powinny się pojawić na rynku już w tym roku, przede wszystkim w komputerach z procesorami innych niż Intel producentów.
Pamięć podręczna - SRAM Pamięć podręczna jest zupełnie innym rodzajem pamięci, zdecydowanie szybszym od większości odmian układów DRAM. SRAM jest skrótem od Static RAM, czyli pamięci statycznej, która w przeciwieństwie do układów DRAM (pamięci dynamicznej) nie wymaga odświeżania. Dzięki rozwiązaniom zastosowanym w układach SRAM nie tylko została wyeliminowana konieczność cyklicznego odświeżania, ale i uzyskano znaczne zwiększenie szybkości, dzięki czemu układy te mogą w pełni dotrzymać kroku nowoczesnym procesorom. Czasy dostępu pamięci SRAM wynoszą nawet poniżej 2 ns, dzięki czemu mogą współpracować z procesorami pracującymi z częstotliwościami 500 i więcej MHz! Tak dobre wyniki osiągnięto dzięki budowie układów SRAM, w których każda komórka pamięci jest zbudowana z sześciu tranzystorów. Dzięki temu niepotrzebne stało się odświeżanie pamięci, ponieważ w komórkach nie ma rozładowujących się z tipływem czasu kondensatorów. Pamięci SRAM będą przechowywały informację tak długo, jak długo będą zasilane. Dlaczego więc, skoro układy SDRAM są tak dobre, nie stosuje się ich jako pamięci systemowej? Odpowiedź jest prosta: Typ Szybkość wytworzenia DRAM Wolne SDRAM Szybkie
Gęstość
Koszt
Wysoka Niska
Niski Wysoki
SRAM w porównaniu do układów DRAM jest dużo szybsza, ale równocześnie ma dużo mniejszą gęstość, jest również o wiele droższa. Mniejsza gęstość oznacza, że układy SRAM mają większe wymiary i w sumie przechowują mniej komórek pamięci. Duża ilość tranzystorów i grupowa budowa układów oznacza, że kości SRAM są nie tylko większe, ale i droższe w porównaniu z układami DRAM. Na przykład moduł SDRAM może zawierać ponad 64 MB RAM, podczas gdy moduł SDRAM o takim samym rozmiarze będzie miał tylko 2 MB, a koszt jego wytworzenia wyniesie tyle samo, co 64 MB modułu DRAM. Ogólnie rzecz biorąc, pamięć SRAM jest około 30 razu większa i 30 razy droższa od pamięci DRAM. Z powodu dużych rozmiarów i kosztów wytwarzania, moduły SRAM nie są stosowane jako pamięć systemowa komputerów PC. Choć SRAM jest zbyt droga, by można było ją wykorzystywać jako pamięć systemową pecetów, projektanci systemów PC znaleźli sposób, by za jej pomocą znacząco zwiększyć wydajność komputerów. Zamiast wydawać duże kwoty na układy SRAM i wykorzystywać
je jako pamięć systemową, taniej było wyposażyć procesor w niewielką ilość bardzo szybkiej pamięci SRAM, nazywanej pamięcią podręczną (ang. cache mernory). Pamięć podręczna pracuje z częstotliwością zbliżoną lub nawet równą częstotliwości pracy procesora i jest pamięcią, z której bezpośrednio korzysta procesor. Podczas operacji odczytu dane w szybkiej pamięci podręcznej są z wyprzedzeniem wymieniane z wolniejszą pamięcią systemową DRAM. Do niedawna szybkość pamięci DRAM była ograniczona do około 60 ns (16 MHz). W czasie gdy komputery PC pracowały z częstotliwościami 16 i mniej MHz, 60-nanose-kundowe układy DRAM w pełni dotrzymywały kroku procesorowi i płycie głównej, przez co nie było potrzeby stosowania pamięci podręcznej. Jednak od czasu gdy procesory zaczęły być taktowane z częstotliwością wyższą od 16 MHz, pamięci DRAM przestały wystarczać i projektanci komputerów zwrócili uwagę na możliwości skryte w układach SRAM. Nastąpiło to na przełomie lat 1987-1988, gdy na rynku pojawiły się pierwsze procesory 386 taktowane częstotliwościami 16 i 20 MHz. Systemy z tymi procesorami były jednymi z pierwszych systemów posiadających pamięć podręczną, z której procesor bezpośrednio pobierał dane. Ponieważ pamięć podręczna może pracować z szybkością procesora, kontroler pamięci podręcznej przewiduje z wyprzedzeniem, jakich danych będzie potrzebował procesor i kopiuje je z pamięci systemowej do szybszej pamięci podręcznej. Dzięki temu, gdy procesor wywoła adres pamięci, zostaną mu dostarczone dane z pamięci podręcznej. Efektywność pamięci podręcznej jest wyrażana za pomocą współczynnika trafień (ang. hit rano). Jest to stosunek liczby trafień do sumy wszystkich odczytów pamięci. Trafienie następuje, gdy procesorowi są potrzebne dane, które zostały już wcześniej umieszczone w pamięci podręcznej, dzięki czemu procesor nie musi ich odczytywać z pamięci systemowej. Chybieniem (ang. cache miss) nazywana jest sytuacja, w której kontroler pamięci podręcznej nie przewidział, iż dane, które chce odczytać procesor, będą potrzebne, przez co procesor musi je odczytywać z wolniejszej pamięci systemowej. Za każdym razem, gdy procesor odczytuje dane z pamięci systemowej, musi czekać, ponieważ pamięć ta działa z niższą od niego częstotliwością. Jeśli procesor pracuje z częstotliwością 233 MHz, jego cykl trwa około 4 nanosekund. Pamięć systemowa natomiast może mieć czas dostępu równy 60 ns, co oznacza, że pracuje z częstotliwością tylko 16 MHz. Z tego powodu, za każdym razem, gdy procesor odczytuje dane z pamięci systemowej, praktycznie zwalnia do 16 MHz! Zwolnienie jest osiągane poprzez realizowanie przez procesor cykli oczekiwania (ang. wait states), podczas których nie są wykonywane żadne operacje procesor właściwie zatrzymuje się, oczekując na dane z pamięci systemowej. Dlatego rozwiązania zastosowane przy projektowaniu działania pamięci podręcznej mają bardzo duży wpływ na wydajność systemu. W nowoczesnych komputerach, w celu zminimalizowania sytuacji, kiedy procesor jest zmuszony do oczekiwania na dane z wolniejszej pamięci systemowej, stosuje się dwa poziomy pamięci podręcznej: pamięć podręczną LI i pamięć podręczna L2. Pamięć podręczna pierwszego poziomu (LI) jest również nazywana integralną lub wewnętrzna pamięcią podręczną, ponieważ znajduje się bezpośrednio w procesorze i jest częścią jego matrycy. Z tego powodu LI zawsze pracuje z pełną częstotliwością jądra procesora i jest najszybszą pamięcią podręczną w każdym systemie. Wszystkie procesory 486 i nowsze zawierają zintegrowaną pamięć podręczną pierwszego poziomu, dzięki czemu są znacząco szybsze od swoich poprzedników. Pamięć podręczna drugiego poziomu jest
Początkowo pamięci podręczne były asynchroniczne, czyli pracowały z częstotliwością różniącą się od częstotliwości magistrali procesora. W stworzonym w 1995 roku chip-secie 430FX i wszystkich późniejszych wprowadzono nowy typ synchronicznej pamięci podręcznej. Synchroniczny tryb pracy wymagał, by częstotliwość pracy układów pamięci podręcznej była zsynchronizowana i taka sama jak częstotliwość magistrali procesora, dzięki czemu znacząco zwiększała się jej wydajność. W tym czasie dodano również tryb potokowo-seryjny (ang. pipeline burst modę), który umożliwia dokonanie po każdym pojedynczym odczycie całej ich serii, co pozwoliło zredukować sumę opóźnień (cykli oczekiwań). Ponieważ zarówno synchroniczny tryb pracy, jak i tryb potokowo-seryjny pojawiły się w tym samym czasie i zostały zastosowane w tych samych układach, obecność jednego z nich najczęściej jest związana z obecnością drugiego. W sumie dzięki obu trybom pracy pamięci podręcznej wydajność systemu wzrosła o 20%, co jest Rysunek 7.4. Architektura komputera z procesorem Pentiuiu MMX i chipseiem 430TX Intela
Do 266 MHz
Gniaz da ISA
W nowoczesnych systemach kontroler pamięci podręcznej znajduje się albo w układzie North Bridge (w komputerach z procesorami Pentium i wcześniejszych), albo w procesorze (w komputerach z procesorami z Pentium Pro/II i nowszych). Możliwości kontrolera decydując wydajności i możliwościach pamięci podręcznej. Warto zauważyć, iż większość kontrolerów pamięci podręcznej potrafi buforować tylko ograniczoną ilość pamięci. Często limit ten jest dość niewielki, tak jak to było w komputerach z procesorami Pentium i chipsetem 430TX. Chipset ten był w stanie buforować tylko 64 MB pamięci systemowej. Jeśli miałeś więcej pamięci, komputer działał zauważalnie wolniej,
ponieważ wszystkie dane poza pierwszymi 64 MB nigdy nie były buforowane i ich odczyt wiązał się z koniecznością wykonania wszystkich cykli oczekiwań wymaganych podczas odczytu z wolniejszych układów DRAM. Zależnie od wykorzystywanego oprogramowania, spowolnienie to mogło być naprawdę znaczące. Na przykład 32-bitowe systemy operacyjne, takie jak Windows NT lub 95/98 zapełniają pamięć od końca, czyli gdybyś
posiadał 96 MB pamięci, system operacyjny i aplikacje byłyby załadowane bezpośrednio do niebuforowanych górnych 32 MB (położonych ponad pierwszymi 64 MB). Spowodowałoby to olbrzymie spowolnienie działania systemu. W tym wypadku rozwiązaniem zwiększającym wydajność komputera byłoby wyjęcie dodatkowej pamięci, tak by w systemie było zainstalowane tylko 64 MB. Krótko mówiąc, nie ma sensu instalować w komputerze więcej pamięci, niż komputer (chipset) może buforować. Więcej informacji znajdziesz w dokumentacji komputera lub rozdziale o procesorach i chipsetach.
Fizyczna pamięć komputera Maksymalną ilość fizycznej pamięci w komputerze determinuje typ procesora i architektura płyty głównej komputera. Procesory 8088 i 8086 mają 20 linii adresowych i mogą zaadresować do l MB (1024 kB) pamięci RAM. Procesory 286 i 386SX mają 24-bitową magistralę adresową i mogą współpracować maksymalnie z 16 MB pamięci. Procesory 386DX, 486, Pentium, Pentium MMX i Pentium Pro mają 32 linie adresowe, dzięki czemu mają dostęp do 4 GB pamięci, natomiast Pentium II z 36 liniami adresowymi może obsłużyć aż 64 GB pamięci! Procesory 286 i nowsze emulując procesor 8088 (np. wykonując pojedynczy program systemu DOS) pracują w nybie rzeczywistym (ang. real modę). Jest to jedyny tryb dostępny w procesorach 8086 i 8088, wykorzystywanych w komputerach PC i XT. W trybie rzeczywistym wszystkie procesory Intel, łącznie z „potężnymi" procesorami Pentium, mają przestrzeń adresową ograniczoną do l MB - dokładnie tak, jak ich przodkowie 8088 i 8086. 384 kB z tego obszaru są zainstalowane na potrzeby różnych urządzeń komputera. Jedynie w trybie chronionym procesory 286 i lepsze mogą w pełni wykorzystać swoje możliwości adresowania. Komputery z procesorami Pentium mogą zaadresować do 4 GB pamięci, a komputery z. procesorami Pentium II - do 64 GB pamięci. Przekładając możliwości adresowania na ceny, koszt 64 GB (65536 MB) wyniósłby łącznie ok. $100000. Oczywiście, planując zakup tak dużej ilości pamięci moglibyśmy negocjować ze sprzedawcą korzystniejszą cenę. Nawet gdybyśmy pozwolili sobie na zakup całej tej pamięci, to obecnie największe dostępne moduł) (168-końcówkowe moduł}' DIMM) mają pojemność 256 MB. Zainstalowanie takiej ilości RAM-u wymagałoby użycia 256 takich kości pamięci, a produkowane dziś płyty główne mają do 8 gniazd przeznaczonych na tę pamięć. Większość płyt głównych Pentium II może posiadać maksymalnie od trzech do siedmiu gniazd pamięci DIMM, co pozwala na zainstalowanie od 0,75 do 1,5 GB pamięci przy wypełnionych wszystkich gniazdach. Te ograniczenia wynikają z chipsetu, nie z procesora. Technicznie rzecz ujmując, procesor Pentium może zaadresować do 4 GB pamięci, zaś Pentium II - do 64 GB pamięci, jednak na rynku nie występuje żaden chipset, który by to umożliwiał! Większość z istniejących obecnie chipsetów Pil pozwala zaadresować najwyżej l GB pamięci. Systemy Pentium mają jeszcze większe ograniczenia. Są dostępne od 1993 roku, lecz jedynie te zbudowane w roku 1997 i później używają chipsetu płyty głównej obsługującego
pamięci SDRAM DIMM. Nawet płyty używające najnowszego chipsetu 430TX Intela nie obsługują więcej niż 256 MB całkowitej pamięci, nie powinny mieć także zainstalowanych więcej niż 64 MB pamięci z powodu ograniczeń w systemie pamięci podręcznej. Nie instaluj więcej niż 64 MB pamięci w swoim systemie Pentium, chyba że jesteś pewny, iż płyta główna i chipset umożliwiają funkcjonowanie pamięci podręcznej drugiego poziomu dla pamięci głównej powyżej tego rozmiaru. Jeśli chcesz uzyskać więcej informacji na ten temat, w rozdziale 4. w sekcji doiyczącej chipsetów znajdziesz wyczerpujący opis ograniczeń pamięci podręcznej na płytach głównych Intela i innych producentów. Starsze płyty główne 386 i 486 mogą mieć problemy z adresowaniem pamięci powyżej 16 MB, a to z powodu problemów z kontrolerem DMA (Direcl Memory Access). Jeśli zainstalujesz kartę ISA używającą kanału DMA (na przykład kartę busmaster SCSI) i masz więcej niż 16 MB pamięci RAM, pojawiają się potencjalne problemy, ponieważ magistrala ISA umożliwia transfery DMA jedynie do granicy 16 MB. Próba transmisji danych poprzez DMA powyżej granicy 16 MB kończy się załamaniem systemu. W przypadku nowych, 32bitowych systemów problem znika, podobnie w przypadku 32-bitowych gniazd kart rozszerzeń, takich jak PCI. 32-bitowe systemy operacyjne automatycznie re mapuj ą transfery DMA magistrali ISA poniżej granicy 16 MB, zaś w przypadku PCI po prostu nie ma takich ograniczeń. Pierwotnie pamięć systemów komputerowych była zbudowana z pojedynczych chipów. Oryginalne maszyny XT i AT firmy IBM posiadały 36 kieszeni na takie chipy na płycie głównej. Zainstalowanie większej ilości pamięci wymagało umieszczenia w komputerze specjalnych kart rozszerzających, na które można by wetknąć dodatkowy RAM. Poza pracochłonnością obsługi, tego typu rozszerzenia pamięci miały jeszcze jedną wadę. Mianowicie kości miały tendencję do obluzowywania się w gniazdach ze względu na cykle temperaturowe, którym były poddane. Każdego dnia, gdy włączano system, kości się rozgrzewały, a potem - każdego dnia przy wyłączaniu komputera studziły się. Na skutek ruchów termicznych mogło się zdarzyć, że kości traciły dobry styk z gniazdem. Objawiało się to usterkami w pracy komputera. Jedyną metodą było otwieranie obudowy co jakiś czas i pracochłonne dociskanie kości do ich gniazd. Jedyną alternatywą było lutowanie kości pamięci - zamiast umieszczania ich w gniazdach. Jednak w przypadku awarii pojedynczej kości pamięci zwykła wymiana uszkodzonego elementu przeradzała się w koszmar wylutowywania chipów z płyty głównej. Wymagało to wprawy, cierpliwości i wiele czasu. Jedno i drugie rozwiązanie miało więc wady. Zatem rozwiązaniem, jakie na producentach wymusili użytkownicy, była prostota instalacji rozszerzeń pamięci z jednoczesnym zagwarantowaniem trwałości takiej instalacji. W większości współczesnych komputerów można zamiast pojedynczych układów pamięci spotkać raczej pamięć w postaci modułów SIMM (single inline memory module) albo DIMM (dual in-line memory module). Są to małe płytki, które umieszczamy w gniazdach na płycie głównej albo na kartach rozszerzających. Same układy pamięci zostały na stałe przylutowane do modułów, niemożliwa jest więc wymiana pojedynczych układów. W razie awarii musimy wymienić cały moduł. Pod tym względem moduły SIMM/DIMM przypominają więc jedną dużą kość pamięci.
W komputerach kompatybilnych z IBM spotkać można dwa typy modułów SIMM, różniące się fizycznie: moduły 30-końcówkowe (9bitowe) i 72-końcówkowe (36-bitowe). Wśród nich spotyka się moduły różniące się pojemnością pamięci i innymi parametrami. Moduły 30końcówkowe są mniejsze od 72-końcókowych i mogą mieć przylutowane kostki pamięci z jednej lub z obydwu stron. SIMM-y 30końcówkowe wychodzą obecnie z użycia, przede wszystkim ze względu na rosnącą popularność komputerów 64-bitowych, w których do obsadzenia jednego banku pamięci potrzeba aż 8 takich modułów. W komputerach z procesorem Pentium-MMX i Pentium Pro popularność zyskały moduły DIMM - 168-końcówkowe moduły 64-bitowe (bez bitów parzystości) lub 72-bitowe (z bitami parzystości). Na rysunkach 7.5, 7.6 i 7.7 przedstawiono typowe 30-końcówkowe (9bitowe) i 72-końcówkowe (36-bitowe) moduły SIMM oraz 168końcówkowe (64-bitowe) moduły DIMM. Końcówki znajdujące się z obydwu stron płytki ponumerowano od lewej do prawej. Wszystkie wymiary są podane zarówno w calach, jak i w milimetrach (w nawiasach).Moduły SIPP (single inline pinned packages) są to zwykłe kości SIMM, z dolutowany-mi nóżkami w miejscach blaszek stykowych. Zostały one wyprodukowane z myślą o gniazdach tańszych do SIMM. Ze względu na ich wady - brak zatrzasku chroniącego przed wysunięciem oraz brak zabezpieczeń przed wycieraniem się styków - w dzisiejszych czasach prawie się ich nie używa.
Rysunek 7.7. Typowy moduł DIMM. Ukazany na rysunku ma strukturę 72-bitową, jednak wymiarami nie róini się od modułu 64-bitowego
Istnieje możliwość przerobienia modułu SIPP w SIMM - poprzez obcięcie dodatkowych igiełek - lub modułu SIMM w SIPP - poprzez ich dolutowanie. Istnieją także specjalne przejściówki umożliwiające umieszczenie modułów SIPP w gniazdach 30-stykowych SIMM.
Moduł SIMM w bardzo małych rozmiarach skupia bardzo duży obszar pamięci. Dostępne są wersje modułów o różnych pojemnościach. Tabela 7.4 przedstawia rozmiar pamięci różnych modułów SIMM (30- i 72-końcówkowych) oraz DIMM. Tabela 7.4. Pojemności modułów SIMM i DIMM
Rozmiar 256 kB 1 MB 4 MB 16 MB Rozmiar 1 MB 2 MB 4 MB 8 MB 16 MB 32 MB 64 MB 128 MB
SIMM Moduły-y z kontrolą 256 kb x 9 1 Mbx9 4 Mb x 9 16 Mb x 9 SIMM Moduły-yz kontrolą 256 kb x 36 512kbx36 1 Mb x 36 2 Mb x 36 4 Mb x 36 8 Mb x 36 16 Mb x 36 32 Mb x 36
30-końcówkowe parzystości Moduły bez kontroli 256 kb x 8 1 Mbx8 4Mbx8 16 Mb x 8 72-końcówkowe parzystości Moduły bez kontroli 256 kb x 32 512kbx32 1 Mb x 32 2 Mb x 32 4 Mb x 32 8 Mb x 32 16 Mb x 32 32 Mb x 32
parzysto ści
parzysto ści
Tabela 7.4. cd. Pojemności modułów SIMM i DIMM
Rozmiar 8 MB 16 MB 32 MB 64 MB 128 MB 256 MB
DIMM-y 168-końcówkowe Moduły z kontrolą Moduły bez parzystości kontroli 1 Mb x 72 1 Mb x 64 2 Mb x 72 2 Mb x 64 4 Mb x 72 4 Mb x 64 8 Mb x 72 8 Mb x 64 16 Mb x 72 16 Mb x 64 32 Mbx72 32 Mb x 64
parzystoś ci
Moduły SIMM z układami dynamicznej pamięci RAM (DRAM) dla poszczególnych rozmiarów pamięci są dostępne w wersjach o różnych czasach dostępu. Szybkość pracy modułów pamięci wyraża się w nanosekundach (miliardowych częściach sekundy, oznaczanych w skrócie ns). Dostępne moduły SIMM mają różne czasy dostępu, od 120 ns (najwolniejsze) do 50 ns (najszybsze), a prędkość modułów DIMM waha się od 60 ns do 7 ns. W większości pierwszych komputerów z modułami SIMM, ich czas dostępu wynosił 120 ns. Moduły te zostały w niedługim czasie wyparte przez SIMM-y 100-nanosekundowe i szybsze. Obecnie w handlu są dostępne moduły SIMM od 70 ns do 60 ns oraz moduły DIMM o czasie dostępu mniejszym niż 10 ns. Dostępne są również moduły szybsze i wolniejsze od tych, jednak z powodu ich ograniczonego zastosowania są trudne do zdobycia.
Jeżeli komputer wymaga modułów o określonym czasie dostępu, to zawsze można zastosować szybsze moduły. Bez problemu można również „mieszać" w jednym komputerze moduły o różnych czasach dostępu, o ile ich czas dostępu jest taki sam lub krótszy w porównaniu do wymaganego przez dany komputer. Z powodu niedużych różnic w cenie pomiędzy modułami o różnych czasach dostępu, zazwyczaj decyduję się na kupno szybszych modułów, niż wymaga mój komputer. Szybsze moduły mogą znaleźć zastosowanie w przyszłości, przy zmianie komputera na model wymagający modułów o krótszym czasie dostępu. SDRAM (Synchronous DRAM), charakteryzujących się bardzo szybkim transferem danych, synchronicznym do dostarczonego sygnału zegarowego. Moduły te mogą współpracować z magistralami przesyłającymi dane z częstotliwością do 100 MHz, a w przyszłości do 200 MHz. 30-końcówkowe moduły SIMM są dostępne w kilku odmianach, co może mieć wpływ na ich pracę w konkretnym komputerze (po zainstalowaniu niektórych modułów komputer może odmówić pracy). Po pierwsze, moduły te występują w dwóch odmianach różniących się rozkładem wyprowadzeń. W większości komputerów wykorzystuje się moduły ogólnego przeznaczenia, których rozkład wyprowadzeń został ustandaryzo-wany. W wielu starszych komputerach, począwszy od XT-286, który pojawił się w roku 1986, aż do komputerów PS/2 (modele 25, 30, 50 i 60), wykorzystywano
moduły o nieco zmodyfikowanej konfiguracji końcówek, (tzw. 30końcówkowe moduły IBM-style SIMMś). Można dopasować 30końcówkowy moduł SIMM ogólnego przeznaczenia do pracy z komputerem IBM, a także moduł specyficzny dla IBM do pracy z innymi komputerami, jednak prostszy będzie zakup modułów o wyprowadzeniach odpowiednich dla danego typu komputera. Jeżeli potrzebujemy modułów specyficznych dla IBM, to powiedzmy o tym sprzedawcy przy zakupie. Inny problem jest związany z SIMM-ami 30-końcówkowymi i odnosi się do ilości bitów w module. Pojedynczy moduł jest traktowany jak układ pamięci z 9 bitami danych (w tym bit parzystości), wewnętrzna struktura modułu nie ma przy tym znaczenia. Starsze moduły składały się z dziewięciu l-bitowych kości pamięci, podczas gdy w nowszych modułach znajdują się dwa układy 4-bitowe i jeden l-bitowy, pamiętający bity parzystości. Dzięki temu ilość wszystkich układów modułu została ograniczona do trzech. Zmniejszenie ilości układów modułu do trzech wymaga modyfikacji pewnych układów na płycie głównej odpowiedzialnych za odświeżanie pamięci. Wiele starszych płyt głównych nie radzi sobie z modułami 3-układowymi. Większość nowszych płyt automatycznie dopasowuje się do modułów z trzema lub z dziewięcioma układami. Korzystanie z modułów 3-układowych ma jednak tę zaletę, że moduły te są bardziej niezawodne, zużywają mniej energii i mniej kosztują. Większość starszych komputerów również powinna pracować poprawnie z modułami 3-układowymi, jednak niektóre komputery mogą odmówić pracy. Niestety, jedyny sposób, aby się o tym przekonać, polega na sprawdzeniu poprawności działania komputera z danymi modułami. Rozsądniej jest jednak pozostać przy modułach 9układowych, aby nie zużywać czasu na zamianę modułów 3-układowych na 9-układowe. W przypadku SIMM-ów 72-końcówkowych nie ma problemów z wyprowadzeniami końcówek, jedyne różnice wynikają z różnych pojemności pamięci i różnych czasów dostępu. Na współpracę modułu z komputerem nie ma wpływu liczba układów pamięci w module. 72końcówkowe moduły SIMM są idealnym rozwiązaniem w przypadku komputerów 32-bitowych, np. z procesorem 486, ponieważ pojedynczy moduł wystarczy w takim komputerze do obsadzenia całego banku pamięci (32 bity danych plus cztery bity parzystości). Kiedy zmieniamy ilość pamięci w komputerze 32-bitowym wykorzystującym SIMM-y 76końcówkowe, możemy dodawać i usuwać pojedyncze moduły (wyjątek stanowią komputery, w których wprowadzono tzw. pamięć z przeplotem ang. interleaved memory - aby uniknąć wstawiania cykli oczekiwania przy dostępie do pamięci). W komputerach 64-bitowych, do których zaliczają się komputery z procesorem Pentium albo nowszym, jeden bank pamięci tworzą dwa 72końcówkowe moduły SIMM. Niektórzy producenci płyt głównych oferują płyty „oszczędzające SIMM-y" przeznaczone dla nowszych procesorów Pentium, które są wyposażone w gniazda dla SIMM-ów 30i 72-końcówkowych. Konfiguracja taka nie należy z pewnością do najbardziej pożądanych, pozwala jednak użytkownikowi na zagospodarowanie starych modułów 30-końcówkowych. Na jeden bank pamięci może składać się 8 SIMM-ów 30-końcówkowych. Można również użyć kombinacji czterech modułów 30-końcówkowych z jednym modułem 72-końców-kowym. Konfiguracja taka na pewno nie jest optymalną, ponieważ 6 modułów zajmuje dużo miejsca na płycie głównej. Inną możliwością są SIMM-y grupowane w „stosy" oraz konwertery modułów SIMM. Pozwalają one na umieszczanie SIMM-ów 30końcówkowych w gniazdach 72-końcówkowych, dzięki czemu zagospodarowujemy moduły, które inaczej wyrzucilibyśmy
na śmietnik. Takie sposoby, podobnie jak poprzednie, zabierają miejsce na płycie głównej, rozważmy więc dobrze sprawę przed ewentualnym zakupem. Obecnie, gdy ceny modułów SIMM i DIMM nieustannie spadają, prawdopodobnie lepszym rozwiązaniem będzie pozostanie przy 72-końcówkowych modułach SIMM i 168końcówkowych modułach SIMM. Pamiętajmy przy tym, że w niektórych komputerach z procesorem 486 (np. PS/2 90 i 95) stosuje się w celu zmniejszenia liczby cykli oczekiwania tzw. pamięć z przeplotem (ang. interleaved memory). W rozwiązaniu tym liczba SIMM-ów w komputerze musi być wielokrotnością liczby 2, ponieważ idea dostępu do pamięci z przeplotem polega na naprzemiennym odwoływaniu się procesora do obydwu modułów, dzięki czemu poprawia się wydajność komputera. Bank pamięci jest najmniejszą porcją pamięci, jaka może być jednorazowo zaadresowana przez procesor. Rozmiar banku z reguły odpowiada szerokości magistrali danych procesora. W przypadku pamięci z przeplotem wirtualny bank pamięci może mieć rozmiar dwukrotnie większy od szerokości magistrali danych procesora. Nie zawsze możemy zamienić moduł SIMM w komputerze na moduł o większej pojemności pamięci. Np. komputery IBM PS/2 Model 70Axx i Bxx dopuszczają stosowanie 72-końcówkowych modułów SIMM o pojemnościach l MB i 2 MB oraz o czasie dostępu 80 ns lub krótszym. Osiągalne są również SIMM-y o pojemności 4 MB i czasie dostępu 80 ns, jednak moduły takie nie będą pracowały w tych komputerach. Natomiast komputery PS/2 Model 50 SX i 65 SX dopuszczają 72-końcówkowe SIMM-y o pojemnościach l MB, 2 MB i 4 MB. Moduły SIMM o większych pojemnościach mogą być stosowane tylko wówczas, gdy na ich stosowanie pozwala płyta główna. Informacje na temat odpowiedniej dla danego komputera pojemności pamięci i czasu dostępu modułów SIMM można znaleźć w dokumentacji komputera. Obecnie wszystkie dostępne w sprzedaży komputery wykorzystują moduły SIMM, a wiele komputerów współpracuje z modułami DIMM. Moduły SIMM i DIMM spotyka się nawet w komputerach Apple Macintosh. Rozwiązanie SIMM/DIMM nie jest niczyim rozwiązaniem firmowym, a raczej standardem w branży. Jak już wspomniałem, niektóre moduły SIMM przy takiej samej pojemności i czasie dostępu różnią się nieco wyprowadzeniem końcówek, dlatego powinniśmy się zawsze upewnić, że moduły, które kupujemy, pasują do naszego komputera. Rozkład końcówek modułów SIMM W tabelach 7.5 i 7.6 zebrano opisy wyprowadzeń 30-końcówkowych oraz standardowych 72-końcówekowych modułów SIMM. Dodatkowa tabela opisuje znaczenie specjalnych końcówek SIMM-ów 72końcówkowych, wykorzystywa-nych do wykrywania obecności modułu w gnieździe. Końcówki te służą płycie głównej do ustalenia rozmiaru i czasu dostępu pamięci RAM modułów SIMM. Końcówek tych są pozbawione standardowe SIMM-y 30-końcówkowe, jednak firma IBM wyposażyła w tę funkcję swoje zmodyfikowane SIMM-y 30końcówkowe.
Końcówka Sygnał modułu standardowego
Sygnał modułu firmy IBM
1 2
+5Vdc Sygnał strobe kolumny adresu Dane - bit O Adres - bit O Adres - bit l Dane - bit l Adres - bit 2 Adres - bit 3 Masa Dane - bit 2 Adres - bit 4 Adres - bit 5 Dane - bit 3 Adres - bit 6 Adres - bit 7 Dane - bit 4 Adres - bit 8 Adres - bit 9 Sygnał strobe wiersza adresu Dane - bit 5 WE (Write Enable - zapis do pamięci) Masa Dane - bit 6 Obecność modułu w gnieździe (masa) Dane - bit 7 Obecność modułu w gnieździe (l MB = masa) Sygnał strobe wiersza adresu Nie podłączone
3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
+5 Vdc Sygnał strobe kolumny adresu Dane - bit O Adres - bit O Adres - bit l Dane - bit l Adres - bit 2 Adres - bit 3 Masa Dane-bit 2 Adres - bit 4 Adres-bit 5 Dane-bit 3 Adres-bit 6 Adres-bit 7 Dane-bit 4 Adres-bit 8 Adres-bit 9 Adres-bit l O Dane - bit 5 WE (Write Enable - zapis do pamięci) Masa Dane - bit 6 Nie podłączone Dane - bit 7 Dane - bit 8, wejściowy (parzystości)
27
Sygnał strobe wiersza adresu 28 Bit parzystości sygnału strobe kolumny adresu 29
30
Dane - bit 8 (parzystości), wyjściowy +5 Vdc
Dane - bit 8 (parzystości), linia dwukierunkowa +5 Vdc
Tabela 7.6. Rozmieszczenie końcówek w standardowych 72końcówkowych modułach SIMM Końcówka Sygnał Końcówk Sygnał a 1 Masa 37 Parzystość - bit 1 2 Dane - bit 0 38 Parzystość - bit 3 3 Dane - bit 16 39 Masa 4 Dane - bit 1 40 Sygnał strobe kolumny adresu 0 5 Dane -bit 17 41 Sygnał strobe kolumny adresu 2 6 Dane - bit 2 42 Sygnał strobe kolumny adresu 3 7 Dane -bit 18 43 Sygnał strobe kolumny adresu 1Sygnał strobe wiersza adresu 0 8 Dane - bit 3 44 9 Dane -bit 19 45 Sygnał strobe wiersza adresu 1 10 +5 Vdc 46 Wybór bloku 1 11 Bit parzystości WE (Write Enable - zapis 47 sygnału strobe kolumny do pamięci) adresu 12 Adres -bitO 48 Zarezerwowane 13 Adres- bit 1 49 Dane - bit 8 14 Adres -bit 2 50 Dane - bit 24 15 Adres -bit 3 51 Dane - bit 9 16 Adres -bit 4 52 Dane - bit 25 17 Adres -bit 5 53 Dane -bit 10 18 Adres -bit 6 54 Dane - bit 26 19 Zarezerwowane 55 Dane - bit 11 20 Dane - bit 4 56 Dane - bit 27 21 Dane -bit 20 57 Dane -bit 12 22 Dane - bit 5 58 Dane - bit 28 23 Dane -bit 21 59 +5 Vdc 24 Dane - bit 6 60 Dane - bit 29 25 Dane - bit 22 61 Dane- bit 13 26 Dane - bit 7 62 Dane - bit 30 27 Dane - bit 23 63 Dane - bit 14 28 Adres - bit 7 64 Dane- bit 31 29 Wybór bloku 0 65 Dane -bit 15 30 +5 Vdc 66 Wybór bloku 2 Tabela 7.6. C.d. Rozmieszczenie końcówek w standardowych 72końcówkowych modulach SIMM Końcówk a31 32 33 34 35 36
Sygnał Adres - hit 8 Adres - bit 9
Parzystość - bit 2 Parzystość - bit 0
Końcówk a 67 68 69 70 71 72
Sygnał Obecno moduł ść u Obecno umoduł ść \v Obecno umoduł ść w Obecno umoduł ść u \v 3 Wybór bloku Masa
gnieźdz ie gnieźdz ie gnieźdz ie gnieźdz ie -
bitO bit 1 bit 2 bit 3
Zwróć uwagę, że 72-stykowe SIMM-}' wykorzystują zestaw czterech lub pięciu styków do przekazania płycie głównej informacji o rodzaju SIMMa. Te styki obecności są albo podłączone do masy, albo nie podłączone w celu wskazania typu SIMM-a. Styki obecności muszą być podłączone do masy poprzez zeroomowy rezystor na płytce SIMM - w celu wysterowania styku w wysoki poziom logiczny, gdy styk jest otwarty, a w niski poziom logiczny, gdy styk jest połączony z masą płyty głównej. W ten sposób powstaje cyfrowy sygnał dekodowany przez układy logiczne płyty głównej. Jeśli płyta główna wykorzystuje sygnały obecności, to podczas procedury POST (Power-On Self Test) potrafi wyznaczyć rozmiar i szybkość płytek pamięci SIMM i na tej podstawie automatycznie dobrać sygnały sterowania i adresowania pamięci. Dzięki temu rozmiar i szybkość pamięci mogą być wykryte automatycznie. Cały mechanizm bardzo przypomina przemysłowy standard kodów DX używanych w nowoczesnych filmach fotograficznych 35 mm, który wskazuje na wartość ASA (szybkość naświetlania) filmu. Gdy wkładasz film do aparatu, styki elektryczne łączą się z metalizowanymi polami na obudowie rolki, tworzącymi ogólnie przyjęty kod DX. Tabela 7.7 przedstawia przemysłowy standard JEDEC stosowany do wykrywania konfiguracji 72-stykowych modułów pamięci z rodziny SIMM. JEDEC to Joint Electronic Devices Engineering Council, stowarzyszenie amerykańskich producentów i użytkowników półprzewodników, ustanawiające wymiary i inne standardy dla kostek i modułów pamięci. Tabela 7.7. Konfiguracja styków obecności dla 72-sfrkowych pamięci SIMM Rozmiar 1 MB 1 MB 1 MB 1 MB 2 MB
Szybkość lOOns 80 ns 70 ns 60 ns lOOns
Styk 67 68 Gnd Gnd Gnd Gnd
Styk
Gnd
Styk 69 Gnd Gnd Gnd
Styk 70 Styk 11 Gnd Gnd Gnd cd. na następnej stronie
Tabela 7.7. cd. Konfiguracja styków obecności dla 72-stykowych pamięci SIMM Rozmia 2r MB 2 MB 2 MB 4 MB 4 MB 4 MB 4 MB 8 MB 8 MB 8 MB 8 MB
Szybkość 80 ns 70 ns 60 ns 100 ns 80 ns 70 ns 60 ns lOOns 80 ns 70 ns 60 ns
Styk 67 Styk 68 Styk 69 Styk 70 Styk 11 Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd -
16 MB 16 MB 16 MB 16 MB 32 MB 32 MB 32 MB 32 MB
80 ns 70 ns 60 ns 50 ns 80 ns 70 ns 60 ns 50 ns
Gnd Gnd Gnd Gnd -
Gnd Gnd Gnd Gnd
Gnd Gnd Gnd Gnd
Gnd Gnd Gnd Gnd
Gnd Gnd Gnd Gnd Gnd Gnd Gnd Gnd
Niestety, nie wszyscy producenci dostosowują się do przyjętych za obowiązujące standardów. Jednym z przykładów jest różnorodność rozwiązań sygnałów zawiadamiających 0obecności różnych modułów pamięci. Compaq, IBM (głównie w systemach PS/2) 1Hewlett-Packard są głównymi producentami komputerów o takich niestandardowych - wymaganiach. Wiele z ich systemów, pomimo iż używają standardowych gniazd SIMM, wymaga specjalnych, dostosowanych do ich komputerów modułów pamięci. Tabela 7.8 przedstawia połączenia styków konfiguracji pamięci według firmy IBM. Właśnie różnorodne wariacje definicji tych styków są powodem, dla którego przy zamawianiu pamięci SIMM musisz podać, czy chodzi o układy IBM, Compaą, HP czy moduły standardowe.
Tabela 7.8. Konfiguracja styków obecności dla 72-stykowych pamięci SIMM 67 68 69 70 Typ SIMM-a Numer części (IBM) Niedozwolo N/A na konfiguracj Gnd 1 MB 120 ns N/A Gnd 2 MB 120 ns N/A Gnd 2 MB 70 ns 92F0102 Gnd Gnd 8MB70ns 64F3606 Gnd Gnd Zarezerwowan N/A e2 MB 80 ns Gnd Gnd 92F0103 Gnd Gnd 8MB80ns 64F3607 -Gnd Gnd Zarezerwowan N/A Gnd Gnd e1 MB 85 ns 90X8624 Gnd Gnd 2 MB 85 ns 92F0104 Gnd Gnd 4MB70ns 92F0105 Gnd Gnd Gnd 4 MB 85 ns 79F1003(squaren L40otch) SX Gnd Gnd Gnd 1 MB 100 ns N/A Gnd Gnd Gnd 8 MB 80 ns 79F1004 (square notch) L40-SX Gnd Gnd Gnd 2 MB 100 ns N/A Gnd Gnd Gnd 4 MB 80 ns 87F9980 Gnd Gnd Gnd Gnd 2 MB 85 ns 79F1003 (square notch) Gnd L40SX Tabela 7.9 przedstawia rozkład wyprowadzeń standardowych, niebuforowanych, 168-stykowych pamięci SDRAM DIMM. Tabela 7.9. Wyprowadzenia 168-stykowej pamięci SDRAM DIMM Styk 1 2 3 4
x64 NonParity Gnd Data Bit 0 Data Bit 1 Data Bit 2
x72 Parity/ECC Gnd Data 0 Bit Data 1 Bit Data 2 Bit
Styk 85 86 87 88
x64 NonParity Gnd Data Bit 32 Data Bit 33 Data Bit 34
x72 ECC Parity Gnd Data Bit 32 Bit Data 33 Data Bit 34 następnej stronie cd. na
Rozdział 7. • Pamięć Tabel 7.8. Konfiguracja styków obecności a SIMM 67 68 69 70 Typ SIMM-a Niedozwolo na konfiguracj Gnd 1 MB 120 ns Gnd 2 MB 120 ns Gnd Gnd 2 MB 70 ns Gnd 8 MB 70 ns Gnd Gnd Zarezerwowan e2 MB 80 ns Gnd Gnd Gnd Gnd Gnd 8 MB 80 ns Gnd Zarezerwowan Gnd Gnd e1 MB 85 ns Gnd Gnd 2 MB 85 ns Gnd Gnd Gnd 4 MB 70 ns Gnd Gnd 4 MB 85 ns Gnd Gnd Gnd 1 MB 100 ns Gnd Gnd Gnd 8 MB 80 ns Gnd Gnd Gnd 2 MB 100 ns Gnd Gnd Gnd Gnd 4MB80ns Gnd Gnd Gnd Gnd 2 MB 85 ns
407 dla 72-stykowych pamięci Numer części (IBM) N/A N/A N/A 92F01 02 64F36 06 N/A 92F01 03 64F36 07 N/A 90X86 24 92F01 04 92F01 05 79F10 (sąuare notch) 03 L40-SX N/A
79F10 (sąuare notch) 04 L40-SX N/A 87F99 80 79F10 (sąuare notch) 03 L40SX Tabela 7.9 przedstawia rozkład wyprowadzeń standardowych, niebuforowanych, 168-stykowych pamięci SDRAM DIMM.
Tabela 7.9. Wyprowadzenia 168-stykowej pamięci SDRAM DIMM Styk 1 2 3 4
x64 NonParity Gnd Data Bit 0 Data Bit 1 Data Bit 2
x72 Parity/ECC Gnd Data Bit 0 Data Bit 1 Data Bit 2
Styk 85 86 87 88
x64 Nonx72 ECC Parity Parity Gnd Gnd Data Bit 32 Data Bit Data Bit 33 32 Data Bit 33 Bit Data Bit 34 Data 34 następnej stronie cd. na
Tabela 7.9. cd. Wyprowadzenia 168-sąkowej pamięci SDRAM DIMM Styk x64 Nonx72 Sty x64 Nonx72 Parity 5 Data Bit 3 Data Bit 3 89 Data Bit 35 Data Bit 35 6 +5 V +5 V 90 +5 V +5 V 7 Data Bit 4 Data Bit 4 91 Data Bit 36 Data Bit 36 8 Data Bit 5 Data Bit 5 92 Data Bit 37 Data Bit 37 9 Data Bit 6 Data Bit 6 93 Data Bit 38 Data Bit 38 10 Data Bit 7 Data Bit 7 94 Data Bit 39 Data Bit 39 11 Data Bit 8 Data Bit 8 95 Data Bit 40 Data Bit 40 12 Gnd Gnd 96 Gnd Gnd 13 Data Bit 9 Data Bit 9 97 Data Bit 41 Data Bit 41 14 Data Bit 10 Data Bit 10 98 Data Bit 42 Data Bit 42 15 Data Bit 11 Data Bit 1 1 99 Data Bit 43 Data Bit 43 16 Data Bit 12 Data Bit 12 100 Data Bit 44 Data Bit 44 17 Data Bit 13 Data Bit 13 101 Data Bit 45 Data Bit 45 18 +5 V +5 V 102 +5 V +5 V 19 Data Bit 14 Data Bit 14 103 Data Bit 46 Data Bit 46 20 Data Bit 15 Data Bit 15 104 Data Bit 47 Data Bit 47 21 Check Bit 0 105 Check Bit 4 22 Check Bit 1 106 Check Bit 5 23 Gnd Gnd 107 Gnd Gnd 24 108 25 109 26 +5 V +5 V 110 +5 V +5 V Column 27 Write Enable Write Enable 111 Column Address Address Strobe Strobe 28 Byte Mask 0 Byte Mask 0 112 Byte Mask 4 Byte Mask 4 29 Byte Mask 1 Byte Mask 1 113 Byte Mask 5 Byte Mask 5 30 SO SO 114 Sl Sl Rów 31 Reserved Reserved 115 Rów Address Address Strobe Strobe 32 Gnd Gnd 116 Gnd Gnd 33 Address Bit 0 Address Bit 0 117 Address Bit 1 Address Bit 1 34 Address Bit 2 Address Bit 2 118 Address Bit 3 Address Bit 3 35 Address Bit 4 Address Bit 4 119 Address Bit 5 Address Bit 5
Tabela
7.9. cd. Wyprowadzenia 1 68- stykowej pamięci SD flAM DI M M Styk x64 Non*72 Sty x64 Nonx72 Parity Parity Bit Address Parity/ECC k Parity Bit 7 Address ECC Bit 7 36 Address Bit 6 120 Address 6 37 Address Bit Address Bit 8 121 Address Bit 9 Address Bit 9 8 38 Address Bit Address Bit 10 122 Bank Address Bank Address 0 10 39 Bank Bank Address 1 123 0Address Bit 1 Address Bit 1 1 Address 40 +5 V 1 +5 Y 124 1+5 V +5 Y 41 +5 V +5 V 125 Clock 1 Clock 1 42 Clock 0 Clock 0 126 Address Bit Address Bit 12 43 Gnd Gnd 127 12 Gnd Gnd 44 Reserved Reserved 128 Clock Enable Clock Enable 0 45 S2 S2 129 0S3 S3 46 Byte Mask 2 Byte Mask 2 130 Byte Mask 6 Byte Mask 6 47 Byte Mask 3 Byte Mask 3 131 Byte Mask 6 Byte Mask 6 48 Reserved Reserved 132 Address Bit Address Bit 13 13 V 49 +5 V +5V 133 +5 +5 V 50 134 51 135 52 Check Bit 2 136 Check Bit 6 53 Check Bit 3 137 Check Bit 7 54 Gnd Gnd 138 Gnd Gnd 55 Data Bit 16 Data Bit 16 139 Data Bit 48 Data Bit 48 56 Data Bit 17 Data Bit 17 140 Data Bit 49 Data Bit 49 57 Data Bit 18 Data Bit 18 141 Data Bit 50 Data Bit 50 58 Data Bit 19 Data Bit 19 142 Data Bit 51 Data Bit 51 59 +5 V +5 V 143 +5 V +5 V 60 Data Bit 20 Data Bit 20 144 Data Bit 52 Data Bit 52 61 145 62 Yoltage Yoltage 146 Yoltage Yoltage Reference Reference Reference Reference 63 Clock Enable Clock Enable 1 147 1 64 Gnd Gnd 148 Gnę Gnę 65 Data Bit 21 Data Bit 2 1 149 Data Bit 53 Data Bit 53 66 Data Bit 22 Data Bit 22 150 Data Bit 54 Data Bit 54 cd. na następnej stronie
Tabela 7.9. cd. Wyprowadzenia 168-stykowej pamięci SDRAM DIMM Styk 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81
"64 NonData Bit 23 Gnd Data Bit 24 Data Bit 25 Data Bit 26 Data Bit 27 +5 V Data Bit 28 Data Bit 29 Data Bit 30 Data Bit 31 Gnd Clock 2
x72 Data Bit 23 Gnd Data Bit 24 Data Bit 25 Data Bit 26 Data Bit 27 +5V Data Bit 28 Data Bit 29 Data Bit 30 Data Bit 31 Gnd Clock 2 -
Sty 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165
x64 NonData Bit 55 Gnd Data Bit 56 Data Bit 57 Data Bit 58 Data Bit 59 +5V Data Bit 60 Data Bit 61 Data Bit 62 Data Bit 63 Gnd Clock 3 Serial PD Address 82 Serial Data Serial Data I/O 166 Serial PD I/O Address 83 Seria! Serial 167 Serial Clock Input PD Clock Address Input 84 +5 V +5 V 168 +5V
x72 Parity Data Bit 55 Gnd Data Bit 56 Data Bit 57 Data Bit 58 Data Bit 59 +5 V Data Bit 60 Data Bit 61 Data Bit 62 Data Bit 63 Gnd Clock 3 Serial PD Address Serial PD Address Serial PD Address +5 V
Pamięci DIMM używają zupełnie innego mechanizmu wykrywania obecności, noszącego nazwę SPD (Serial Presence Detect). Składa się on z małej pamięci EEPROM (Electrically Erasable Programmable Read Only Memory) lub nawet pamięci flash umieszczonej w module DIMM, zawierającej specjalnie sformatowane dane opisujące właściwości danego modułu. Te szeregowe dane mogą zostać odczytane poprzez styki danych szeregowych modułu i umożliwiają płycie głównej precyzyjne dostosowanie się do zainstalowanego modułu pamięci. Zorganizowanie oraz pojemności pamięci RAM Na płytach głównych komputerów PC można spotkać kilka typów układów pamięci. W większości są to układy o szerokości magistrali równej l bit, o różnych pojemnościach. W poniższej tabeli zebrano spotykane układy RAM i ich pojemności: Przyrostek „-10" na układzie określa jego szybkość (czas dostępu), wyrażoną w nano-sekundach (ten układ ma czas dostępu równy 100 ns). Symbol MB81256 jest numerem identyfikującym układ i zazwyczaj zawiera informację o pojemności kości pamięci.
Cyfry 1256 wskazują na rozmiar 256 K słów l-bitowych. Aby z takich układów uzyskać bank pamięci o szerokości jednego bajta, potrzebnych jest dziewięć takich układów. Układ oznaczony symbolem KM4164B-10 oznacza kość pamięci o pojemności 64 K razy l bit o czasie dostępu 100 ns. Poniższa lista przedstawia popularne układy pamięci i ich oznaczenia. Symbol układu 4164 4464 41128 44128 41256 44256 41000 44000
Pojemność pamięci 64 K razy l bit 64 K razy 4 bity 128 K razy l bit 128 K razy 4 bity 256 K razy l bit 256 K razy 4 bity l M razy l bit l M razy 4 bity
Układy o szerokości słowa większej niż jeden bit są stosowane do budowy banków składających się z mniejszej liczby układów niż 9, 18 czy 36 (w zależności od architektury). Np. w komputerze XT-286, który jest 16-bitowym komputerem AT, ostatnie 128 kB pamięci na płycie głównej jest bankiem składającym się tylko z sześciu układów; cztery z nich mają szerokość słowa równą 4 bity, a pozostałe dwa układy z bitami parzystości to układy jednobitowe. Szerokość słowa jest więc równa 18 bitom. Litera „F", umieszczona pomiędzy dwoma kreskami na rysunku 7.8, jest znakiem firmy Fujitsu Microelectronics. Liczba 8609 oznacza datę produkcji (dziewiąty tydzień 1986 roku), podaną jednak według kalendarza juliańskiego. Dokładniejszych informacji 0 oznaczeniu układu może udzielić producent albo sprzedawca układu. SIMM-y i DIMM-y również mają numery części, które mogą być trudne w odcyfrowa-niu. Niestety, nie ma ogólnie przyjętego przemysłowego standardu nazywania takich modułów, więc jeśli chcesz precyzyjnie rozszyfrować numer części, musisz się skontaktować z producentem. Rysunek 7.9 przedstawia sposób numerowania modułów SIMM firmy Micron Technology (a także Crucial Technology). Banki pamięci Moduły pamięci (DIP, SIMM, SIPP i DIMM), znajdujące się na płycie głównej lub na kartach rozszerzających pamięć, są zorganizowane w banki. Dobrze jest znać rozmiar banku 1 jego usytuowanie na płycie głównej komputera, względnie na kartach rozszerzających. Znajomość rozmiaru banku jest potrzebna przy rozszerzaniu pamięci komputera. Ponadto programy diagnostyczne informując o błędzie pamięci podają adres błędnej komórki jako adres w bajtach i numer bitu w komórce. Do użytkownika należy zidentyfikowanie na podstawie tej informacji błędnego banku pamięci.
Rozmiar banku jest zazwyczaj związany z rozmiarem magistrali mikroprocesora. W tabeli 7.10 podano szerokości banków w zależności od typu komputera PC. Odpowiednia liczba bitów, stanowiąca szerokość słowa banku, może być uzyskana jako zestawienie pojedynczych układów, modułów SIMM albo DIMM. Np. w komputerze 286 wykorzystującym bank 18-bitowy, pojedynczy bank można zbudować z 18 osobnych układów, o szerokości słowa l bit, albo z czterech 4-bitowych układów składających się na 16bitowe słowo i dwóch układów 1-bitowych przechowujących bity parzystości.od typu komputera
£ .cro O N u ' 3
j= o
u
30modułów przypadającyc h na jeden bank Liczba 72końcówkowy modułów przypadającyc SIMM h na jeden bank Liczba 168końcówkow modułów przypadającyc h na jeden
$
ń Q.
Rozmiar banku danych (bez bito parzystości) Rozmiar banku danych (z bitami rzystości)
= k.+•« tn
Szerokość magii danych
Procesor
Tabela 7.10. Rozmiary banków pamięci w zależności
8088 8-bitowa 8 bitów 9 bitów 1 <1* < 1 8086 1616 18 2 <1* < 1* bitowa 1bitów 286 166 1bitów 8 2 <1* < 1^ bitów bitów 386SX, SL, 1bitowa 616 18 2 <1* < *1 SLC bitowa 32 bitów bitów 386DX 32bity 32 bity 4 1 < 1* bitowa 486SLC, 1616 18 2 <1* < 1* SLC2 DX. 32bitowa 32 bitów bitów 486SX, bity 32 bity 4 1 < * DX2, DX4 Pentium, 6464 bity 64 bity 8 2 1 MMX bitowa Pentium Pro, 6464 bity 64 bity 8 i 1 Pentium II Pojedynczy moduł SIMM czy DIMM tworzy więcej niż jeden bank pamięci. Do zapełniania banku pamięci w komputerach 486 potrzebne są cztery 30końcówkowe SIMM-y lub jeden SIMM 72-końcówkowy. Każdy 72-końcówkowy moduł SIMM jest 32- lub 36-bitowy, w zależności od tego, czy obsługuje parzystość. Często możesz się zorientować, czy dany moduł SIMM obsługuje parzystość, po prostu licząc znajdujące się na nim układy. Do zbudowania 32bitowego modułu SIMM potrzeba albo 32 osobnych, l -bitowych układów, albo ośmiu układów 4-bitowych. Jeśli system obsługuje parzystość, moduł SIMM musi posiadać cztery dodatkowe bity (w sumie 36 bitów), w związku z czym znajduje się na nim dodatkowo jeden (4-bitowy) lub cztery (1-bitowe) układy zawierające bity parzystości. Jak możesz sobie wyobrazić, 30-końcówkowe pamięci SIMM nie są zbyt dobre dla systemów 32- i 64-bitowych (na przykład 486 i Pentium), bo każdy bank trzeba byłoby obsadzać czterema lub ośmioma modułami. Jako że układy te mają pojemność l, 4 lub 16 MB, w komputerze Pentium musiałoby się znajdować 8, 32 lub 128 MB pamięci, bez żadnych wartości pośrednich. Ponieważ wykorzystanie 32-końcówkowych SIMM-ów w 32- i 64-bitowych systemach wiąże się ze sztucznymi ograniczeniami możliwych pojemności pamięci, stosowanie tych układów nie jest zalecane. W 32-bitowym systemie (na przykład każdym komputerze PC z procesorem 486) wykorzystującym 72-końcówkowe SIMM-y każdy układ jest bankiem i może zostać wymieniony osobno, a nie jak to było w przypadku 30-końcówkowych SIMM-ów - w grupach po cztery
układy. Dzięki temu konfiguracja pamięci stała się znacznie prostsza i bardziej elastyczna. W nowoczesnych 64-bitowych systemach wykorzystujących 72końcówkowe SIMM-y w skład każdego banku wchodzą dwa układy. Układy DIMM są idealnym rozwiązaniem dla komputerów Pentium i nowszych, ponieważ tak samo jak magistrala procesora Pentium, są 64-bitowe. Oznacza to, że każdy moduł DIMM jest osobnym bankiem i może zostać dodany lub usunięty bez konieczności wyjmowania lub instalowania dodatkowych modułów. Liczba i położenie gniazd pamięci SIMM i DIMM na płycie głównej zależy od jej producenta. Bardzo przydatna jest tu dokumentacja dołączona do komputera, dzięki której możesz szybko się zorientować, jakie i ile gniazd pamięci znajduje się na płycie głównej. Czas dostępu układów pamięci RAM Czas dostępu pamięci RAM jest wyrażany w nanosekundach (ns - nanosekunda jest czasem, w jakim światło przebywa drogę 11,72 cali). W przypadku pamięci RAM w komputerach PC czas ten waha się do ok. 10 ns do 200 ns. Kiedy wymieniamy uszkodzony moduł pamięci, musimy go zastąpić modułem takiego samego typu i o takim samym czasie dostępu. Możemy w miejsce starego modułu umieścić inny moduł, ale jego czas dostępu musi być mniejszy lub równy czasowi dostępu starego modułu. Czasami użytkownikom zdarzają się problemy podczas „mieszania" ze sobą w komputerze różnych modułów SIMM, ponieważ zastosowane układy nie spełniają minimalnych wymagań komputera (np. czas odświeżania) bądź też są fizycznie niekompatybilne z płytą pod względem rozmieszczenia końcówek, wysokości, szerokości czy typu modułu. Czas dostępu modułu zawsze może być niższy niż wymagany, pod warunkiem, że układy pamięci są odpowiedniego typu i spełniają wszystkie inne wymagania. Zamiana układów pamięci na szybsze nie zawsze powoduje wzrost szybkości komputera, ponieważ płyta główna nadal komunikuje się z pamięcią z szybkością taką jak poprzednio. W komputerach, w których wymagania czasowe zostały zbyt „napięte", korzystanie z szybszych układów może przyczynić się do zwiększenia niezawodności pracy komputera. To samo odnosi się do sytuacji, w której pamięć w komputerze po prostu nie działa bądź też nie jest wystarczająco szybka. Objawia się to zazwyczaj błędami parzystości albo zupełnym brakiem działania komputera. Błędy mogą być również zgłaszane przez program testujący POST. W razie wątpliwości, jakie układy pamięci są odpowiednie dla konkretnego komputera, skontaktujmy się z producentem sprzętu albo wiarygodnym dostawcą pamięci.
Złoto i cyna Wielu ludzi nie docenia znaczenia metalu zastosowanego w wyprowadzeniach modułów SIMM i DIMM. Zarówno układy SIMM, jak i DIMM są produkowane w wersjach z końcówkami pokrytymi cyną i złotem. Początkowo wydawało mi się, iż SIMM-y i DIMM-y z pozłacanymi końcówkami oferują największą niezawodność w każdym wypadku, ale nie jest to prawdą. By uzyskać najbardziej niezawodny system, musisz zainstalować pamięci SIMM lub DIMM w gniazdach pokrytych tym samym metalem, co wyprowadzenia modułów. Jeśli zainstalujesz w pozłacanych gniazdach moduły z końcówkami pokrytymi cyną, po pewnym czasie wystąpią błędy pamięci. To samo dotyczy sytuacji odwrotnej - zainstalowania modułów z pozłacanymi końcówkami w gniazdach z wyprowadzeniami pokrytymi cyną. Według mojego doświadczenia, błędy zaczynają występować od 6 miesięcy do roku po instalacji modułów. Na problem ten natknąłem się już wielokrotnie zarówno w moich komputerach, jak i komputerach, które serwisowałem. Nawet zostałem poproszony o pomoc przez klienta, który
kupił kilkaset komputerów od ich producenta i po roku od dostarczenia w systemach tych zaczęły się masowo pojawiać błędy pamięci. Było to spowodowane różnicą metali, którymi były pokryte wyprowadzenia gniazd i końcówki modułów (w tym wypadku pozłacane SIMM-y w pokrytych cyną gniazdach). Doszło do procesu, ponieważ producent odmówił wymienienia SIMMów na wersje o końcówkach pokrytych cyną. W większości płyt głównych pod Pentium i 486 wyprowadzenia gniazd pamięci 72końcówkowych modułów SIMM są pokryte cyną i należy w nich instalować moduły o końcówkach pokrytych tym samym metalem. Intel obecnie stanowczo odradza łączenie różnych metali w pamięci systemowej. Przeprowadzone przez producentów gniazd badania wykazały, że gdy cyna styka się bezpośrednio ze złotem lub jakimkolwiek innym metalem, zachodzi zjawisko nazwane korozją cierną. Korozja cierna zachodzi wówczas, gdy na powierzchnię złota przemieszcza się posiadający wysoką oporność tlenek cyny, który utrudnia lub nawet uniemożliwia przechodzenie ładunków elektrycznych. Zjawisko to występuje zawsze, bez względu na grubość warstwy złota. W miarę upływu czasu, zależnie od warunków otoczenia, prędzej czy później korozja wywoła dużą oporność w miejscu styku, co zaowocuje błędami pamięci. Ktoś może w tym momencie pomyśleć, iż problemy wywołane są łatwym utlenianiem się cyny. Jednak w przypadku gdy stykają się ze sobą mocno dociśnięte dwie powierzchnie pokryte cyną, utrzymanie styku jest bardzo łatwe, ponieważ tlenki obu powierzchni wiążą się ze sobą, utrzymując kontakt. Szczególnie odnosi się to do modułów SIMM i DIMM, gdzie na miejsce styku przyłożony jest duży nacisk. Gdy złoto i cyna stykają się ze sobą, jedna z powierzchni jest twarda, co powoduje, że utlenianie wzmacnia się i z powodu nacisku nie może się rozproszyć. Zwiększona oporność miejsca styku w pewnym momencie zaczyna wywoływać błędy pamięci. Dlatego właśnie przy instalacji pamięci nie powinno się łączyć ze sobą różnych metali. AMP, producent złącz, opublikował wiele dokumentów omawiających to zagadnienie. Najważniejsze z nich to Golden Rules: Guidelines for the Use oj Tin on Connecior Coniacts (Wskazówki na temat wykorzystania złota \v złączach komputerowych) oraz The Tin Conunandtnents: Guidelines for the Use ofTin on Connecior Contacts (Wskazówki na temat w\korzystania cyny w złączach komputerowych). Oba dokumenty w formie pliku *.PDF można pobrać z witryny internetowej AMP, znajdującej się pod adresem http://www.ampincorporated.com/. W dokumencie dotyczącym stosowania cyny jest na przykład napisane (w zaleceniu 7),,Łączenie wyprowadzeń pokrytych cyną z wyprowadzeniami pokrytymi złotem nie jest zalecane". Więcej informacji technicznych możesz znaleźć w polecanych przeze mnie witrynach internetowych Intela i AMP. Najlepszym rozwiązaniem jest łączenie złota ze złotem, czyli umieszczenie w gniazdach z wyprowadzeniami pokrytymi złotem modułów pamięci z pozłacanymi końcówkami. W ten sposób jest zaprojektowana większość serwerów i innych cechujących się dużą niezawodnością systemów. Większość systemów wykorzystujących moduły SDRAM DIMM posiada pozłacane gniazda i w związku z tym wymaga korzystania z pamięci SDRAM o końcówkach pokrytych tym samym metalem. Jeśli pamięci są pokryte innym metalem niż gniazda na płycie głównej, najlepszym rozwiązaniem będzie ich wymiana. Innym, mniej korzystnym wyjściem z sytuacji, które umożliwi w miarę normalną pracę, jest czekanie, aż pojawią się błędy (najczęściej od 6 miesięcy do roku). Wówczas należy wyjąć układy pamięci z gniazd, przeczyścić styki i umieścić je z powrotem w ich miejscach. Oczywiście czynność tę za jakiś czas znów będzie trzeba powtórzyć. Rozwiązanie to może być wystarczające dla użytkownika, który ma jeden lub dwa komputery, ale nie jest wystarczające dla firmy, która montuje setki systemów. W dodatku, jeśli w twoim komputerze nie ma pamięci z
parzystością lub ECC (a tak jest w większości obecnie sprzedawanych komputerów), nie będziesz w stanie od razu się zorientować, że błędy (ogólne wyjątki ochrony, zawieszanie się komputera, uszkodzenia plików i danych itp.) są wywołane problemami z pamięcią. Znajdujący się na warstwie złota osad tlenków cyny jest bardzo trudny do usunięcia i często trzeba go usuwać za pomocą na przykład gumki lub różu polerskiego. Usuwanie w ten sposób nalotu nigdy nie powinno być robione na sucho, ponieważ pocieranie powoduje powstanie ładunków elektrostatycznych, które mogą uszkodzić układ. Lekkie zwilżenie oczyszczanego miejsca zminimalizuje szansę uszkodzenia pamięci przez ładunki elektrostatyczne. Są osoby, które zarzucają mi zbytnią ostrożność przy dobieraniu pamięci do gniazd. Często zdarzało się, że zwracałem pamięci lub płyty główne, jeśli producent nie wiedząc o problemie umieścił nieodpowiednie moduły w gniazdach pamięci. Gdy wyjaśniałem problem niektórym ludziom, twierdzili, że posiadali wiele komputerów PC z pamięciami pokrytymi innym metalem niż gniazda i komputery te działały prawidłowo przez wiele lat.
Grubość warstwy warstwy w mikronach w mikrocalach 0,4 0,8 1,3
15 30
Ilość cykli do wystąpienia błędu 200 1000
50
2000
Grubość
Jak wynika z tabeli, warstwa twardego złota o grubości 0,8 mikrona (30 mikrocali) jest więcej niż wystarczająca i umożliwia wykonanie 1000 cykli wyjęcia i ponownego umieszczenia modułów w gniazdach pamięci. Po przeanalizowaniu specyfikacji produkowanych przez AMP gniazd SIMM i DIMM stwierdziłem, że są one w większości pokryte warstwą złota o grubości 0,8 mikrona na mierzącej 1,3 mikrona warstwie niklu w punkcie styku. Na ile mogłem stwierdzić, w praktycznie wszystkich wyprowadzeniach modułów SIMM i DIMM stosuje się warstwę o podobnej grubości i trwałości. AMP posiada również kilka gniazd pamięci w wersji z warstwą złota o grubości 1,020 mikrocala położoną na warstwie niklu o grubości 1,270 mikrocala. Podejrzewam, że gniazda te były przeznaczone do na przykład urządzeń testujących układy pamięci, które muszą wytrzymać znacznie więcej instalacji modułów. Gniazda te można byłoby też stosować w środowiskach o dużej wilgotności lub w dużym stopniu narażonych na wibrację. Dla porównania, we wszystkich gniazdach SIMM i DIMM pokrytych cyną, warstwa tego metalu nie może być mniejsza od 30 mikrocali w miejscu styku, a warstwa niklu musi wynosić co najmniej 50 mikrocali. Rozmiar warstwy naniesionego metalu nie ogranicza zastosowań modułów pamięci. Nie ma on również wpływu na problemy związane ze stykaniem się cyny ze złotem. Jedyną wadą cieńszej warstwy złota jest to, że zetrze się po mniejszej liczbie cykli instalacji, przez co znajdujący się pod nią nikiel może ulec korozji. Według mnie, problem związany z łączeniem złota z cyną może mieć jeszcze większe znaczenie w przypadku modułów DIMM. Jest tak z dwóch powodów. Moduły SIMM mają dwa połączenia dla każdej końcówki (po jednym z każdej strony modułu), więc jeśli któreś z połączeń ulegnie korozji ciernej, nie będzie to miało tak dużego znaczenia. Moduły DIMM mają o wiele więcej końcówek (168, a nie 72), które w dodatku nie mają swoich odpowiedników po drugiej stronie modułów. Dodatkowo, w większości modułów DIMM zastosowano układy SDRAM, których taktowanie dla 66- i 100-mega-hercowych płyt głównych zostało skrócone do 15-10 ns. Przy tych częstotliwościach każda dodatkowa, najmniejsza nawet oporność w miejscu połączenia wywoła problemy.
Z tych właśnie powodów, w przyszłości będę korzystał wyłącznie z płyt głównych ze złączami SIMM lub DIMM o wyprowadzeniach pokrytych złotem i, oczywiście, z modułów pamięci o końcówkach pokrytych tym samym metalem. Zauważyłem, że na przykład Micron produkuje układy DIMM wyłącznie w wersji z końcówkami pokrytymi złotem. Również wyprowadzenia wszystkich gniazd DIMM, jakie do tej pory widziałem, były także pozłacane. W tej chwili nie polecam kupowania żadnej płyty głównej, w której wyprowadzenia złącz SDRAM DIMM byłyby pokryte cyną; nie polecam również kupowania pokrytych tym metalem DIMM-ów.
Grubość warstwy w mikronach
Grubość warstwy w mikrocalach
Ilość cykli do wystąpienia błędu
0.4
15
200
0,8
30
1000
1,3
50
2000
Jak wynika z tabeli, warstwa twardego złota o grubości 0,8 mikrona (30 mikrocali) jest więcej niż wystarczająca i umożliwia wykonanie 1000 cykli wyjęcia i ponownego umieszczenia modułów w gniazdach pamięci. Po przeanalizowaniu specyfikacji produkowanych przez AMP gniazd SIMM i DIMM stwierdziłem, że są one w większości pokryte warstwą złota o grubości 0,8 mikrona na mierzącej 1,3 mikrona warstwie niklu w punkcie styku. Na ile mogłem stwierdzić, w praktycznie wszystkich wyprowadzeniach modułów SIMM i DIMM stosuje się warstwę o podobnej grubości i trwałości. AMP posiada również kilka gniazd pamięci w wersji z warstwą złota o grubości 1,020 mikrocala położoną na warstwie niklu o grubości 1,270 mikrocala. Podejrzewam, że gniazda te były przeznaczone do na przykład urządzeń testujących układy pamięci, które muszą wytrzymać znacznie więcej instalacji modułów. Gniazda te można byłoby też stosować w środowiskach o dużej wilgotności lub w dużym stopniu narażonych na wibrację. Dla porównania, we wszystkich gniazdach SIMM i DIMM pokrytych cyną, warstwa tego metalu nie może być mniejsza od 30 mikrocali w miejscu styku, a warstwa niklu musi wynosić co najmniej 50 mikrocali. Rozmiar warstwy naniesionego metalu nie ogranicza zastosowań modułów pamięci. Nie ma on również wpływu na problemy związane ze stykaniem się cyny ze złotem. Jedyną wadą cieńszej warstwy złota jest to, że zetrze się po mniejszej liczbie cykli instalacji, przez co znajdujący się pod nią nikiel może ulec korozji. Według mnie, problem związany z łączeniem złota z cyną może mieć jeszcze większe znaczenie w przypadku modułów DIMM. Jest tak z dwóch powodów. Moduły SIMM mają dwa połączenia dla każdej końcówki (po jednym z każdej strony modułu), więc jeśli któreś z połączeń ulegnie korozji ciernej, nie będzie to miało tak dużego znaczenia. Moduły DIMM mają o wiele więcej końcówek (168, a nie 72), które w dodatku nie mają swoich odpowiedników po drugiej stronie modułów. Dodatkowo, w większości modułów DIMM zastosowano układy SDRAM, których taktowanie dla 66- i 100-mega-hercowych płyt głównych zostało skrócone do 15-10 ns. Przy tych częstotliwościach każda dodatkowa, najmniejsza nawet oporność w miejscu połączenia \\ywola problemy. Z tych właśnie powodów, w przyszłości będę korzystał wyłącznie z płyt głównych ze złączami SIMM lub DIMM o wyprowadzeniach pokrytych złotem i, oczywiście, z modułów pamięci o końcówkach pokrytych tym samym metalem. Zauważyłem, że na przykład Micron produkuje układy DIMM wyłącznie w wersji z końcówkami pokrytymi złotem. Również
wyprowadzenia wszystkich gniazd DIMM, jakie do tej pory widziałem, były także pozłacane. W tej chwili nie polecam kupowania żadnej płyty głównej, w której wyprowadzenia złącz SDRAM DIMM byłyby pokryte cyną; nie polecam również kupowania pokrytych tym metalem DIMM-ów. Niezawodność pamięci Z naturą pamięci wiążą się nieuchronne błędy. Często wyróżnia się dwa rodzaje błędów: błędy ciężkie i błędy miękkie. Najlepiej zbadane i zrozumiane są błędy ciężkie, w których układ po pewnym okresie działania odmawia dalszej pracy z powodu wad produkcyjnych, fizycznych uszkodzeń lub z innych przyczyn. Naprawa tego typu błędu zazwyczaj ogranicza się do wymiany uszkodzonych modułów pamięci. Błędy te są określane nazwą HER. Innym, bardziej tajemniczym typem błędu są błędy miękkie. Miękki błąd jest błędem przejściowym, który może nigdy ponownie nie nastąpić lub pojawiać się w nieregularnych odstępach czasu. (Miękkie błędy są skutecznie „naprawiane" poprzez wyłączenie i ponowne włączenie systemu). Często są one określane skrótem SER. Około 20 lat temu Intel dokonał odkrycia, które zaszokowało producentów układów RAM i spowodowało, iż zaczęli zwracać większą uwagę na miękkie błędy pamięci. Zauważył on bowiem, że bombardowanie cząsteczkami alfa dostępnych w tym czasie 16-kilobaj-towych układów DRAM wywoływało duże zwiększenie się częstotliwości występowania miękkich błędów. Ponieważ cząsteczki te mają małą energię i mogą zostać zatrzymane nawet przez coś tak cienkiego i delikatnego jak kartka papieru, stało się jasne, iż cząsteczki alfa wywołujące miękkie błędy pamięci w warunkach pozalaboratoryjnych muszą pochodzić z materiału półprzewodników. Po przeprowadzeniu testów okazało się, że w plastikowych i ceramicznych materiałach wykorzystywanych w tym czasie do produkcji obudów układów znajdują się śladowe ilości uranu i toru. Zmusiło to producentów pamięci do opracowania technologii umożliwiającej produkcję wolnych od zanieczyszczeń materiałów. Dzięki temu, że producenci pamięci całkowicie wyeliminowali miękkie błędy wywoływane cząsteczkami alfa, wielu ludzi uwierzyło, iż kontrola parzystości stała się zbędna. Argumentem za tym były na przykład wyniki badań, z których wynikało, że wywołany przez cząsteczki alfa miękki błąd 16-megabajtowego modułu pamięci przydarza się raz na 16 lat! Niestety, argument ten znalazł uznanie producentów komputerów, którzy zaczęli usuwać z produkowanych przez siebie systemów kontrolę parzystości i inne mechanizmy mające na celu wykrywanie i poprawianie miękkich błędów pamięci. Tymczasem, jak wykazują najnowsze odkrycia, błędy wywołane cząsteczkami alfa są tylko małym ułamkiem wszystkich miękkich błędów DRAM! Po ich wyeliminowaniu, najczęstszą przyczyną występowania miękkich błędów stało się promieniowanie kosmiczne. Naukowcy firmy IBM rozpoczęli badania nad możliwością wywoływania miękkich błędów pamięci przez promieniowanie kosmiczne, podobnie jak analizowali problemy z cząsteczkami alfa. Promieniowanie kosmiczne różni się od cząsteczek alfa tym, że ma dużo większą energię i nie może zostać zatrzymane przez kartkę papieru ani inne, bardziej masywne typy osłon. Badania te prowadził Dr J.F. Ziegel z IBM Watson Research Center, znajdującym się w Yorktown Heights, w Nowym Jorku. Przeprowadzone przez niego badania okazały się kamieniem milowym w zrozumieniu wpływu promieniowania kosmicznego na występowanie miękkich błędów pamięci.
Doskonałym przykładem ilustrującym wagę wpływu tego promieniowania na występowanie miękkich błędów pamięci, jest jedno z przeprowadzonych przez niego badań, któremu została poddana próbka modułów DRAM nie wyprodukowanych przez IBM. Współczynnik miękkich błędów pamięci (SER) mierzony w warunkach rzeczywistej pracy wyniósł 5950 FIT (błędów w danym okresie, którym był w tym wypadku miliard godzin pracy) na układ. Oznacza to, że w przeciętnym systemie, który zazwyczaj posiada w modułach SIMM około 36 układów pamięci, miękki błąd pojawi się co 6 miesięcy! W systemach z dużymi ilościami pamięci, na przykład serwerach plików, może to być nawet ponad l błąd miesięcznie. Następnie, taka sama próbka została przeniesiona do schronu oddzielonego od powierzchni ziemi 15 metrami skały, dzięki czemu całkowicie wyeliminowano wpływ promieniowania kosmicznego. Po powtórzeniu tej samej procedury testującej nie wykryto ani jednego miękkiego błędu! To doświadczenie nie tylko wykazało wagę wpływu promieniowania kosmicznego na moduły pamięci, ale i udowodniło, że problem błędów wywoływanych przez cząsteczki alfa został w pełni rozwiązany. Układy pamięci statycznej SRAM są bardziej podatne na błędy wywołane promieniowaniem kosmicznym niż układy DRAM, ponieważ ładunek wymagany do przełączenia stanu komórki pamięci jest w nich znacznie mniejszy. Promieniowanie kosmiczne jest również groźniejsze dla układów pamięci o większej gęstości. W miarę zwiększania się gęstości układu zwiększa się również szansa na przełączenie stanu bitu pamięci przez zabłąkaną cząsteczkę. Przewiduje się, że współczynnik występowania miękkich błędów 64-megabajtowych układów DRAM będzie dwa razy większy niż w układach 16-megabajtowych. Dla 256-megabajtowych układów DRAM współczynnik ten będzie większy cztery razy. Niestety, większość producentów komputerów PC nie zwróciła uwagi na nową przyczynę błędów pamięci. Ponieważ miękkie błędy występują nieregularnie i w różnych warunkach, winą za nie obarczano wyładowania elektrostatyczne, skoki zasilania czy też niestabilność oprogramowania, szczególnie po ukazaniu się nowego systemu operacyjnego lub większych aplikacji. Badania wykazały, że częstotliwość występowania miękkich błędów pamięci w komputerach z ECC była około 30 razy większa od częstotliwości występowania błędów ciężkich. Dla tych, którzy znają wpływ promieniowania kosmicznego na układy pamięci, taki wynik nie jest niczym zaskakującym. Obecne dane sugerują, że rozwiązania zastosowane w niektórych 16-megabajtowych układach pamięci mogą zwiększyć liczbę miękkich błędów do 24000 w ciągu miliarda godzin. Oznacza to, że w większości dzisiejszych komputerów występowałby jeden miękki błąd miesięcznie! Jak możemy sobie poradzić z tymi błędami? Z całą pewnością nie jest najlepszym pomysłem ich ignorowanie, choć właśnie tak obecnie postępuje wielu producentów i sprzedawców. Najlepszym sposobem radzenia sobie z nimi jest zwiększenie odporności komputera na błędy. Jak? Najlepiej poprzez wprowadzenie do komputerów mechanizmów wykrywających i, jeśli tylko jest to możliwe, korygujących powstałe błędy. W nowoczesnych komputerach stosuje się trzy rozwiązania pamięci, charakteryzujące się różną odpornością na przekłamania bitów. Układy pamięci mogą więc być: Systemy z pamięcią bez kontroli parzystości nie mają żadnej odporności na błędy. Z układów tych korzysta się tylko dlatego, że są najtańsze. Ich konstrukcja nie wymaga przeznaczania dodatkowej pamięci na techniki kodu korekcji błędów lub na bity parzystości. Ponieważ na każdy bajt pamięci z parzystością przypada 9 bitów, a na tę samą pojemność układu bez parzystości - tylko 8, układy bez parzystości są tańsze o 12,5 procent. Uproszczony jest również ich kontroler pamięci, ponieważ nie musi posiadać dodatkowych bramek logicznych
obliczających parzystość lub sprawdzających kontrolne bity ECC. Systemy przenośne dzięki brakowi kontroli parzystości zużywają mniej energii, ponieważ moduły pamięci są zbudowane z mniejszej liczby układów. Odciążona jest również systemowa magistrala pamięci, dzięki czemu można zmniejszyć rozmiar buforów danych. Statystyczne prawdopodobieństwo wystąpienia miękkiego błędu pamięci w typowym komputerze domowym i biurowym, w zależności od wykorzystanych w nim układów, waha się w granicach jednego błędu na kilka miesięcy. Taki współczynnik prawdopodobieństwa wystąpienia błędu może być wystarczający dla niezbyt wydajnych, tanich komputerów, na których nie uruchamia się spełniających ważne zadania aplikacji. W tym wypadku, rzeczywiście duża konkurencyjność cen może usprawiedliwiać rezygnację z droższych układów pamięci z ECC czy też parzystością. W każdym razie, wielu producentów nie umieszcza w komputerach mechanizmów umożliwiających rozpoznanie i naprawienie błędów pamięci, ponieważ uważa, że błędy te są na tyle rzadkie, iż nawet jeśli jakiś błąd się pojawi, to konsekwencje jego wystąpienia będą niższe od ceny dodatkowych układów wymaganych do przeprowadzenia korekcji. Oczywiście wcale tak być nie musi - błąd pamięci może na przykład wywołać pomyłkę w obliczeniach komputera bankowego albo zawiesić komputer pracujący jako serwer, który pociągnie za sobą wszystkie połączone z nim systemy. W systemie pozbawionym parzystości lub ECC trudno jest nawet rozpoznać błąd pamięci - tego problemu nie ma w systemach z parzystością lub kodem korekcji błędów. Mechanizmy te umożliwiają przynajmniej stwierdzenie, że błąd został wywołany przez przekłamanie pamięci, oszczędzając czas i koszty związane z wyjaśnianiem źródła problemu, Kontrola parzystości Jednym ze standardów, narzuconych branży komputerowej przez firmę IBM, jest jeden wyróżniony układ wśród dziewięciu układów tworzących bank pamięci: osiem układów odpowiada ośmiu bitom w bajcie, natomiast bit dziewiątego układu jest tzw. bitem parzystości (ang. parity bit). Z bitu tego korzysta układ kontroli pamięci, który obserwuje poprawność pozostałych ośmiu bitów. Jest to mechanizm kontroli integralności każdego bajta danych pamiętanego w komputerze. Jeżeli układ kontroli błędów wykryje błąd pamięci, praca komputera zostaje wstrzymana, a na ekranie zostaje wyświetlony komunikat informujący o zaistniałej niesprawności. Jeżeli komputer pracuje w nowszym systemie operacyjnym, takim jak Windows czy OS/2, błąd parzystości objawi się zawieszeniem komputera. Po ponownym uruchomieniu komputera błąd ten zostanie wykryty przez BIOS, po czym zostanie wyświetlony odpowiedni komunikat. Zarówno moduły SIMM, jak i DIMM są dostępne w wersjach z bitami i bez bitów parzystości. Początkowo układy z kontrolą parzystości stosowano we wszystkich komputerach PC. W 1994 r. na rynku komputerów PC pojawiła się niepokojąca tendencja do produkowania i sprzedawania komputerów PC bez żadnych mechanizmów
umożliwiających naprawienie lub chociaż wykrycie błędów pamięci. W komputerach tych zaczęto stosować układy SIMM pozbawione bitów parzystości, które były tańsze 0 około 10-15 procent. Parzystość pamięci nie umożliwia poprawienia błędu, ale przy najmniej informuje o jego zaistnieniu. Dzięki niej: * użytkownik jest poinformowany o błędzie obliczeń bazujących na przekłamanych danych. * od razu wiadomo, że błąd został spowodowany przez pamięć, co ułatwia ser wisowanie komputera. Komputery PC z łatwością można zaprojektować tak, by działały zarówno z pamięciami posiadającymi bity parzystości, jak i nie posiadającymi ich. Właściwie nie ponosi się żadnych dodatkowych kosztów związanych z dostosowaniem płyty głównej do pracy z układami pamięci posiadającymi parzystość, a dzięki takiemu rozwiązaniu to użytkownik podejmowałby decyzję, czy chce wydać o 10-15 procent więcej na układy pamięci 1 mieć je w wersji z parzystością, czy też zadowoli się tańszym rozwiązaniem. Niestety wiele dużych firm zaczęło sprzedawać tańsze systemy, nie afiszując się z tym, że niższa cena ich komputerów wynika z zastosowania pamięci bez bitów parzystości. Proces ten rozpoczął się głównie w latach 1994-1995, gdy bardzo niewielu ludzi w pełni zdawało sobie sprawę ze znaczenia mechanizmów informujących o błędach. Kilku większych producentów dzięki stosowaniu tańszych układów obniżyło ceny swoich komputerów, co zmusiło inne firmy, chcące zachować konkurencyjność, do podążenia za nimi. Ponieważ nikomu nie zależało na rozgłaszaniu tej informacji, pozostawała ona małym sekretem producentów. W początkowym okresie tego procesu, mogłeś przy zamawianiu systemu zażądać pamięci z kontrolą parzystości, nawet jeśli nie była ona wyposażeniem standardowym. Zwiększało to o 10-15 procent cenę pamięci, ale ci, którym zależało na posiadaniu stabilnego systemu, byli gotowi tę kwotę zapłacić, o ile oczywiście wiedzieli, o co pytać. I wtedy właśnie na rynku ukazał się pierwszy chipset, w którym w ogóle nie zaimplementowano mechanizmów kontroli parzystości! Chipsetem tym był Triton 430FX Intela. Triton stał się bardzo popularny, były na nim oparte praktycznie wszystkie płyty główne sprzedane w 1995 roku. To wyznaczyło niepokojący kierunek rozwoju rynku na kilka kolejnych lat. Nie licząc Tritona II (430HX), wszystkie chipsety Intela wyprodukowane po ukazaniu się chipsetu 430FX nie obsługiwały pamięci z kontrolą parzystości. Dobrą nowiną jest natomiast to, że wszystko wskazuje, iż okres ten dobiegł już końca i producenci płyt głównych zaczęli doceniać znaczenie mechanizmów kontroli błędów pamięci. Dzięki temu, większość chipsetów Pentium Pro i Pentium II obsługuje parzystość lub ECC i coraz więcej ludzi stwierdza, że warto wydać więcej pieniędzy na takie pamięci. Zaprojektowano co prawda również chipset Pentium II pozbawiony mechanizmów kontroli pamięci, ale jest on przeznaczony na rynek tanich komputerów, poniżej 3000 zł, w którym nie niezawodność jest najważniejsza, lecz cena. Zobaczmy, w jaki sposób działają mechanizmy kontroli parzystości, a następnie bardziej szczegółowo przyjrzyjmy się jej następcy, kodowi korekcji błędów, który nie tylko wykrywa, ale i na bieżąco poprawia błędy pamięci.
Standard kontroli pamięci wprowadzony przez firmę IBM jest tak naprawdę kontrolą nieparzystości. Istotę kontroli nieparzystości pomoże wyjaśnić następujące rozumowanie: Kiedy w pamięci zapisywanych jest 8 osobnych bitów, układ generoowania bitu parzystości, który jest częścią procesora bądź też znajduje się w osobnym układzie na płycie głównej, zlicza ilość jedynek w bajcie (8 bitach). Jeżeli w bajcie ilość jedynek jest parzysta, generowany jest bit o wartości l, który jest następnie zapamiętywany jako 9. bit w układzie przechowującym bity parzystości. Dzięki temu suma wszystkich 9 bitów jest liczbą nieparzystą. Jeżeli oryginalna suma ośmiu bitów danych jest liczbą nieparzystą, generowany jest bit parzystości o wartości O, a tym samym suma wszystkich dziewięciu bitów jest nieparzysta. Wartość bitu parzystości jest zawsze ustawiana tak, że suma wszystkich 9 bitów (8 bitów danych i jeden bit parzystości) jest liczbą nieparzystą. 8 bitów danych w bajcie jest numerowanych następująco: 0 1 2 3 4 5 6 7 . W zrozumieniu zagadnienia pomogą poniższe przykłady: Numer bitu danych: Wartość bitu danych:
01234567 10110011
Bit parzystości O
W powyższym przykładzie liczba bitów równych jeden jest liczbą nieparzystą (5), dlatego bit parzystości musi być równy O, aby suma wszystkich 9 bitów była nieparzysta. Kolejny przykład: Numer bitu danych: Wartość bitu danych:
01234567 00110011
Bit parzystości l
W powyższym przykładzie liczba bitów równych jeden jest liczbą parzystą (4), dlatego bit parzystości musi być równy l, aby suma wszystkich 9 bitów była nieparzysta. Kiedy odczytywana jest zawartość komórki pamięci, komputer sprawdza informację o parzystości. Jeżeli w bajcie (9 bitów) znajduje się parzysta ilość jedynek, a bit parzystości ma wartość l, oznacza to wystąpienie błędu. Komputer nie potrafi określić, na którym bicie nastąpiło przekłamanie ani czy zmienił się tylko pojedynczy bit. Np. jeżeli zmieniły się naraz trzy bity, to bit parzystości będzie nadal wskazywał na pojawienie się błędu, jednak zmiana dwóch bitów może nie zostać zauważona. Kolejny przykład pokazuje komunikaty o błędach kontroli parzystości w trzech różnych typach komputerów: Gdzie x przyjmuje wartość l albo 2: 1 = błąd w odczycie z pamięci płyty głównej 2 - błąd w odczycie z pamięci karty rozszerzającej t
liczbą szesnastkową z zakresu 00000 - FFFFF, wskazującą na bajt pamięci, przy odczycie którego wystąpił błąd parzystości. x ma postać (S) albo (e) (S) = błąd parzystości dotyczy jednostki komputera (ang. system unit) (e) = błąd parzystości dotyczy specjalnych gniazd rozszerzających IBM (ang. expansion chassis)
Rozwiązanie znane jako ęppansion chassis było opcją w oryginalnych komputerach PC i XT firmy IBM, zwiększającą ilość gniazd rozszerzających w komputerze. Jednostka komputera składała się z płyty głównej w tzw. formacie backplane z ośmioma gniazdami, z których jedno zawierało specjalną kartę (ang. extender/receiver card) połączoną kablem z podobną kartą znajdującą się w jednostce głównej komputera. Dzięki temu zyskiwało się sześć dodatkowych gniazd rozszerzających. W momencie wykrycia błędu parzystości płyta główna komputera generuje przenvanie nienmskowalne (NMI), które powoduje wstrzymanie procesora i przekazuje obsługę błędu procesorowi. Następnie wykonywana jest odpowiednia procedura BIOS-u. Procedura ta czyści ekran i wyświetla komunikat w lewym górnym rogu. Komunikat ten może mieć różną postać, w zależności od typu komputera. W przypadku niektórych starszych komputerów IBM procedura obsługi przerwania powoduje wstrzymanie pracy procesora. Następuje wówczas zawieszenie się komputera i użytkownik musi ręcznie go zrestartować albo włączyć i wyłączyć zasilanie. Niestety, powoduje to utratę wszystkich danych, które nie zostały zapisane na dysku. W większości komputerów w momencie wykrycia błędu parzystości nie następuje wstrzymanie pracy procesora. Zamiast tego użytkownik może wybrać, czy chce zrestartować komputer, czy też kontynuować pracę, tak jakby nic się nie stało. Ponadto forma i treść komunikatu wyświetlanego przy błędzie parzystości może się różnić od komunikatu w komputerze IBM, chociaż wyświetlane są te same informacje. Np. w wielu komputerach wyposażonych w BIOS firmy Phoenix komunikat ten będzie miał następującą postać: Pierwszy z dwóch komunikatów oznacza błąd parzystości pamięci na płycie głównej (Perity Check 1), podczas gdy drugi oznacza błąd pamięci na kartach rozszerzających (Parity Check 2). Zauważmy, że adres komórki pamięci w komunikacie jest podawany w formacie segment:przesunięcie, a niejako adres liniowy, co następuje w komputerze IBM. Format segment:przesunięcie również określa lokalizację w pamięci z dokładnością do jednego bajta. Po wyświetleniu na ekranie takiego komunikatu można zrobić trzy rzeczy: * Nacisnąć klawisz S. co spowoduje wyłączenie kontroli parzystości i wznowi pracę systemu operacyjnego w miejscu, w którym nastąpiło jego zatrzymanie. * Nacisnąć klawisz R, co wymusi restart komputera i spowoduje utratę nie zapi sanych danych. * Naciśnięcie każdego innego klawisza spowoduje wznowienie pracy komputera z włączoną kontrolą parzystości.
Jeżeli problem się powtórzy, może ono spowodować kolejne przerwanie niemaskowalne. W większości przypadków naj roztropniejszy m wyjściem będzie naciśnięcie klawisza S, co spowoduje wyłączenie kontroli parzystości i pozwoli nam na zapisanie danych na dysku. Najlepiej byłoby zapisać efekty naszej pracy na dyskietce, co pozwoli nam uniknąć utrwalenia błędnych danych na dysku. Nie powinniśmy również nadpisywać (ang. overwriting) poprzedniej wersji pliku, gdyż z powodu błędu w pamięci moglibyśmy zapisywać do pliku błędne dane. Kontrolę parzystości mamy wyłączoną, tak więc operacja zapisu na dysk nie powinna zostać przerwana. Następnie powinniśmy wyłączyć komputer, włączyć go ponownie i uruchomić programy diagnostyczne, które mogłyby dokładnie określić błąd. Czasami może się zdarzyć, że błąd zostanie wykryty w czasie testu POST przy następnym uruchamianiu komputera, jednak w większości przypadków do zlokalizowania błędu powinniśmy skorzystać z usług bardziej zaawansowanych programów diagnostycznych, najlepiej w trybie ciągłym (ang. contionuous modę). Jeżeli w komputerze jest BIOS firmy AMI, wyświetlany komunikat ma następującą postać: ON BOARD PARITY ERROR ADDR (HEX) = (xxxxx) lub też OFF BOARD PARITY ERROR ADDR (HEX) = (xxxxx) Komunikaty te wskazują na błąd pamięci w czasie wykonywania testu POST, a adres wskazuje na błędną komórkę pamięci. Pierwszy komunikat odnosi się do pamięci na płycie głównej, podczas gdy drugi informuje o błędzie pamięci na karcie rozszerzającej. AMI BIOS wyświetla komunikaty o błędzie parzystości w następującej postaci: Memeory Parity Error at xxxxx albo I/O Card Parity Error at xxxxx Komunikaty te mówią, że błąd pamięci nastąpił pod wskazanym adresem w czasie normalnej pracy. Pierwszy komunikat informuje o błędzie pamięci na płycie głównej, a drugi o błędzie pamięci na karcie rozszerzającej. Wiele komputerów ma możliwość kontynuowania pracy po wystąpieniu błędu, a także możliwość wyłączenia kontroli parzystości. Jednak kontynuowanie pracy z komputerem po wykryciu błędu może być niebezpieczne. Przesłanką przemawiającą za pozostawieniem możliwości kontynuacji pracy było danie użytkownikowi czasu na zapisanie danych na dysku przed przystąpieniem do ewentualnej naprawy. Bądźmy jednak ostrożni w korzystaniu z tej możliwości! Pamiętajmy, że komunikat o błędzie parzystości oznacza, że pamięć komputera zawiera błędne dane. Czy chcemy, aby błędne dane z pamięci zostały utrwalone na dysku? Jasne, że nie! Dlatego należy zachować dane w pliku o innej nazwie. Jeżeli to możliwe, powinniśmy zachować dane na dyskietce, ponieważ istnieje nieduże ryzyko uszkodzenia struktury logicznej dysku poprzez zapisanie na nim zawartości pamięci z błędami.
Po zapisaniu danych przystępujemy do ustalenia przyczyny błędu parzystości i naprawienia komputera. Pojawia się pokusa całkowitego wyłączenia kontroli parzystości i dalszej pracy jakby nic się nie stało. Takie postępowanie można porównać do wykręcenia kontrolki oleju w samochodzie, w którym wycieka olej, aby swoim świeceniem nie pogarszała nam samopoczucia. ECC (Kod korekcji błędów) ECC w porównaniu do wykrywania błędów pamięci za pomocą parzystości jest dużym krokiem naprzód. ECC nie tylko wykrywa błąd, ale i umożliwia poprawienie pojedynczego przekłamanego bitu, dzięki czemu komputer może kontynuować pracę, bez wstrzymywania systemu i bez uszkodzeń danych. Zaimplementowany w komputerach PC kod korekcji błędów nie potrafi poprawić błędów, w których przekłamaniu uległy dwa bity, choć jest w stanieje wykryć. Ponieważ badania wykazały, że w 98% błędów pamięci przekłamaniu ulegał tylko jeden bit, najpowszechniej stosowany typ ECC polega na wykorzystaniu pomocniczego kontrolera pamięci, który wykrywa i poprawia przekłamania pojedynczego bitu w odczytanym słowie danych (przekłamania dwóch bitów również są wykrywane, ale nie są poprawiane). Ten typ kodu korekcji błędów jest znany jako SEC-DED i wymaga stosowania 7 dodatkowych bitów na 32 bity w 4-bajtowym systemie, a ośmiu dodatkowych bitów w systemie 8-bajtowym. ECC w systemie 4-bajtowym najczęściej zabiera więcej niż parzystość, ale już w systemie 8-bajtowym koszty kodu korekcji błędów i parzystości są dokładnie takie same. ECC wymaga, by kontroler pamięci obliczał podczas operacji zapisów wartości dodatkowych bitów, porównywał wynik z odczytaną wartością i w razie konieczności poprawiał przekłamania. Konieczność zastosowania dodatkowych układów logicznych ECC w kontrolerze pamięci nie ma już obecnie większego znaczenia, ale zastosowanie kodu korekcji błędów zmniejsza szybkość zapisów pamięci. Jest to spowodowane koniecznością oczekiwania na wynik obliczeń dodatkowych bitów. Przy zapisie części słowa, najpierw musi być odczytane całe słowo, później muszą zostać nadpisane zmienione bity, a na koniec obliczona nowa wartość bitów kontrolnych. Większość błędów pamięci jest wywołana przekłamaniem pojedynczego bitu i może zostać poprawiona przez kod korekcji błędów. Dlatego zastosowanie ECC znacząco zwiększa niezawodność systemu. System wyposażony w kod korekcji błędów jest szczególnie dobrze przystosowany do pełnienia roli serwera, stacji roboczej czy też innego komputera, którego stabilna i poprawna praca usprawiedliwia dodatkowe koszty pamięci. Jeśli cenisz swoje dane i używasz komputera do ważnych (dla ciebie) zadań, powinieneś skorzystać z pamięci z kodem korekcji błędów. Projektując system współpracujący zarówno z pamięciami pozbawionymi parzystości, jak i z pamięciami posiadającymi ją lub wyposażonymi w kod korekcji błędów, pozostawia się użytkownikowi możliwość wyboru poziomu ochrony swoich danych i ceny, jaką ma zamiar za to zapłacić.
Rozszerzanie pamięci komputera Spośród wszystkich sposobów „unowocześnienia" komputera, zwiększenie pamięci jest jednym z najbardziej użytecznych, a przy tym jednym z najtańszych, zwłaszcza gdy weźmiemy się pod uwagę, jak wzrosną możliwości systemów Windows 95, Windows NT i OS/2 po rozszerzeniu pamięci. W niektórych przypadkach podwojenie ilości pamięci dostępnej w komputerze może wręcz podwoić szybkość komputera. Układy pamięci są dostępne w różnych formatach i różnych rozmiarach pamięci, nas jednak będą interesować wyłącznie układy pamięci DRAM (dynamie random-access memory). Układy te należą do najbardziej rozpowszechnionych typów pamięci. Pamięci te przyjęło się określać jako „dynamiczne", ponieważ aby przechowywana w nich informacja nie została utracona, do układu trzeba kilkaset razy na sekundę dostarczać porcje energii. Jeżeli wyłączymy zasilanie komputera, to cała informacja jest bezpowrotnie tracona. W tym podrozdziale omówimy rozszerzanie pamięci komputera, co obejmuje wybór odpowiednich układów pamięci, instalowanie ich w komputerze oraz testowanie zainstalowanej pamięci. Możliwe strategie rozszerzania pamięci Zwiększanie pamięci jest stosunkowo tanie - w momencie pisania tej książki cena wynosiła poniżej 1,50 $ za megabajt. Niewielki wydatek może dać komputerowi spory „zastrzyk" większych możliwości. W jaki sposób możemy dodawać pamięć do komputera? Mamy trzy możliwości, uszeregowane według prostoty i kosztów: •
Dodanie pamięci w wolne gniazda na płycie głównej.
•
Zastąpienie pamięci na płycie głównej pamięcią o większej pojemności.
•
Kupno karty rozszerzającej pamięć (najmniej efektywna i najdroższa metoda w obecnych czasach).
Dodawanie pamięci EMS w komputerach PC i XT nie jest dobrym pomysłem, przede wszystkim z powodu ceny - karta rozszerzająca z kilkoma megabajtami pamięci może kosztować więcej niż wynosi wartość całego komputera. Pamięć ta nie będzie działać w systemie Windows, komputer klasy PC czy XT nie może również pracować pod systemem OS/2. Należałoby raczej rozważyć zakup komputera o większej mocy obliczeniowej, np. niedrogiego zestawu Pentium 100. Możliwości rozszerzenia konfiguracji tego ostatniego są o wiele większe. Jeżeli zdecydowaliśmy się na rozszerzenie pamięci w komputerze nowszym niż PC czy XT, musimy pamiętać, że nie jest możliwe przenoszenie pamięci z komputera PC czy XT do komputerów nowszych. 8-bitowe karty rozszerzające pamięć są bezużyteczne
w komputerach AT i Micro Channel, a ich szybkość zazwyczaj jest niedostateczna na potrzeby nowych komputerów. W wielu nowych komputerach zamiast pojedynczych układów stosuje się szybkie moduły SIMM. Zbiór pojedynczych układów o czasie dostępu 150 ns i jednostkowej pojemności 64 kB czy 256 kB jest bezużyteczny, jeżeli nasz komputer wykorzystuje pamięć w postaci modułów SIMM czy innej formie, o czasie krótszym niż 70 ns. Należy więc pogodzić przyszłe potrzeby zwiększenia mocy obliczeniowej komputera i chęć pracy w wielozadaniowych systemach operacyjnych z ilością gotówki, którą bylibyśmy skłonni przeznaczyć na rozbudowę komputera. Zanim rozbudujesz pamięć komputera (lub wymienisz uszkodzone moduły pamięci), musisz określić, jakie układy należy w nim zainstalować. Potrzebne ci informacje znajdują się w dokumentacji komputera. Jeśli musisz wymienić uszkodzone moduły SIMM lub DIMM i nie posiadasz żadnej dokumentacji, możesz stwierdzić, jakie układy są ci potrzebne, sprawdzając te, które znajdują się już w komputerze. Na każdym module pamięci są naniesione oznaczenia informujące o jego czasie dostępu i pojemności. Zagadnienia związane z pojemnością i czasem dostępu pamięci zostały szczegółowo omówione we wcześniejszej części tego rozdziału. Jeśli nie posiadasz dokumentacji sytemu, a jego producent nie oferuje pomocy technicznej, otwórz pokrywę komputera i dokładnie spisz wszystkie oznaczenia znajdujące się na modułach pamięci. Następnie skontaktuj się z najbliższym sklepem komputerowym lub serwisem, który powinien ci pomóc w ustaleniu, jakie moduły pamięci zostały zastosowane w komputerze. Zainstalowanie w komputerze nieprawidłowych modułów może spowodować jego uszkodzenie lub, jeśli się uruchomi, niestabilną pracę. Zanim rozbudujesz pamięć komputera do ponad 64 MB, sprawdź, czy chipset płyty głównej będzie ją buforował. Jeśli chipset płyty głównej nie będzie mógł buforować dodanej pamięci, wydajność komputera raczej zmaleje, niż wzrośnie. Więcej informacji o tym częstym ograniczeniu możesz znaleźć w sekcji „Pamięć podręczna SRAM", wcześniej w tym rozdziale, lub w omówieniu chipsetów w rozdziale 6.
Wybór i instalacja pojedynczych układów pamięci oraz modułów SIMM i DIMM Jeżeli przystępujemy do zwiększenia ilości pamięci na płycie głównej, to przede wszystkim powinniśmy przestrzegać zaleceń producenta dotyczących typu układów pamięci. Jak już była mowa wcześniej, fizyczna pamięć komputera jest dostępna w różnych formach: jako pojedyncze układy w obudowie typu DIP, moduły SIMM. SIPP czy DIMM. W komputerze wykorzystuje się jedną z tych odmian albo ich kombinację. Bez względu na fizyczną formę pamięci komputera, układy pamięci w komputerze są zgrupowane w banki. Bank pamięci jest zbiorem układów pamięci, tworzących jednolity blok pamięci. Każdy taki blok może być odczytany przez procesor w pojedynczym cyklu dostępu do pamięci. Aby bank pamięci mógł funkcjonować, musi być wypełniony fizycznymi układami pamięci.
Umieszczanie dodatkowej fizycznej pamięci na płycie głównej komputera jest prostym sposobem zwiększenia pamięci komputera. W większości komputerów jest przynajmniej jeden nie wykorzystywany bank, w którym będzie można umieścić w przyszłości dodatkowe moduły i zwiększyć w ten sposób szybkość komputera. Zastępowanie modułów SIMM i DIMM modułami o większej pojemności Jeśli wszystkie gniazda pamięci płyty głównej są już obsadzone, najlepszym rozwiązaniem będzie zastąpienie wszystkich modułów pamięci jednego z banków modułami 0 większej pojemności. Jeśli na przykład posiadasz komputer Pentium z 16 MB pamięci w czterech modułach po 4 MB. możesz wymienić wszystkie 4megabajtowe SIMM-y na moduły o pojemności 8 MB. rozbudowując dzięki temu pamięć komputera do 32 MB. Możesz również pozostawić dwa z już posiadanych 4megabajtowych SIMM-ów 1 obsadzić drugi bank modułami 8-megabajtowymi, rozbudowując pamięć komputera do 24 MB. Pamiętaj jednak, że zawsze musisz obsadzać jednocześnie cały bank, który składa się z dwóch modułów pamięci o tej samej pojemności - nie możesz zainstalować w banku tylko jednego modułu lub modułów o różnej pojemności. Konieczność instalowa nia dwóch modułów nie dotyczy pamięci DIMM, ponieważ każda z nich jest pełnym bankiem. Istnienie modułów pamięci o większej pojemności, pasujących do gniazd w twojej płycie głównej, wcale nie oznacza, że pamięci te muszą poprawnie działać z twoim komputerem. Chipset lub BIOS płyty głównej może ograniczać możliwości korzystania z układów o większej pojemności. Zanim więc kupisz nowe moduły pamięci, sprawdź w dokumentacji płyty głównej lub komputera, czy będziesz mógł z nich korzystać. Typy układów pamięci RAM (pojemność) Spotykane są układy pamięci RAM o różnych pojemnościach. Pojemność układu pamięci określa liczbę bitów, jaka może być zapamiętana w układzie. Np. w oryginalnym komputerze IBM PC układy pamięci RAM przechowywały 16 kilobitów danych i były to układy o najmniejszej ilości pamięci stosowane kiedykolwiek w komputerach PC. W oryginalnej wersji komputera XT układy RAM miały pojemność 64 kilobitów. Obecnie układy pamięci RAM. zgrupowane zazwyczaj w moduły SIMM, w komputerach z procesorem Pentium mają pojemność 4 megabitów lub 16 megabitów. Zanim dodamy nowe układy pamięci do komputera (albo wymienimy stare układy na nowe), musimy określić typ układów wymaganych przez nasz komputer. Informację tę można znaleźć w dokumentacji komputera. Jeżeli musimy wymienić uszkodzony układ RAM. a nie mamy dokumentacji komputera, możemy określić typ układów odpowiedni dla danego komputera sprawdzając układy obecne już w komputerze. Każdy układ ma na obudowie napisy, które określają jego pojemność i czas dostępu. Oznaczenia układów o pojemności l M pochodzących od różnych producentów zebrano w tabelce:
Oznaczenie TMS4C1024N/DJ HM51L100AP/AJP/AZP MB81C1000P/PJ/PSZ
Producent Texas Instruments Hitachi Fujitsu
Jeżeli nie mamy dokumentacji komputera i nie jest dostępna pomoc techniczna producenta, nie pozostaje nam nic innego jak otworzyć obudowę komputera i uważnie spisać oznaczenia poszczególnych układów. Następnie udajemy się do najbliższego sklepu komputerowego lub zwracamy się listownie do sprzedawcy układów z prośbą o dobranie układów RAM odpowiednich do naszego komputera. Umieszczenie w komputerze niewłaściwych układów spowoduje, że praca komputera będzie tak zawodna, jakby został pozostawiony w komputerze wadliwy układ pamięci. Czas dostępu układów pamięci RAM Układy RAM różnią się między sobą czasem dostępu. Np. w starszych komputerach były wykorzystywane układy o czasie 80 ns albo wolniejsze, a w komputerach 486 -układy 70 ns i 60 ns. Odpowiednią szybkość układów pamięci w komputerze ustala producent płyty głównej. Np. firma IBM ustala różne szybkości pamięci w zależności od modelu komputera. W tabeli 7.11 zebrano czasy dostępu i liczbę cykli oczekiwania, jakich wymagają płyty główne IBM. Komputery kompatybilne z IBM powinny generalnie akceptować takie same układy pamięci jak ich odpowiedniki wymienione w tabelce. Układy wolniejsze niż 70 ns (60nanosekundowe są szybsze) nie powinny być wykorzystywane w komputerach z procesorem Pentium (albo lepszym). Dozwolone jest zainstalowanie w komputerze szybszych układów pamięci, niż wymaga płyta główna czy karty rozszerzające - zakup szybszych układów może okazać się dobrą inwestycją, jeżeli zamierzamy je w przyszłości wykorzystać w szybszym komputerze. Niestety, szybsza pamięć nie spowoduje przyśpieszenia pracy komputera, ponieważ architektura komputera przewiduje pracę z pamięcią o co najwyżej określonym czasie dostępu. Czas dostępu układów pamięci jest wydrukowany na wierzchu obudowy układu. Na układach pamięci - bez względu na to, czy są to pojedyncze układy typu DIP czy moduły SIMM albo SIOPP - można znaleźć numer identyfikacyjny. Ostatnie dwie cyfry po myślniku (-) są szczególnie ważne, ponieważ wskazują na szybkość układu pamięci. W niektórych komputerach możliwa jest kontrola szybkości pracy układów pamięci. Komputery z regulacją cykli liczby oczekiwania umożliwiają osiągnięcie optymalnej wydajności komputera. W tym celu musimy kupić odpowiednio szybkie układy pamięci. Możemy również wybrać niższą wydajność kupując tańszą pamięć. Praca komputera bez cykli oczekiwania może wymagać użycia układów o krótszym czasie dostępu. Komputery wykorzystujące 72-końcówkowe moduły SIMM mogą określić szybkość i pojemność pamięci zainstalowanych modułów. Wykorzystują w tym celu cztery specjalne końcówki - tzw. presence detect pins. Za pomocą tych wyprowadzeń płyta główna może określić czas dostępu i pojemność pamięci zainstalowanych modułów, podobnie
jak kamera filmowa może określić właściwą szybkość przesuwu taśmy filmowej, odczytując informację z otworów perforowanych na filmie. Umieszczenie w komputerze pamięci, która jest zbyt wolna, może spowodować wyświetlenie komunikatu o błędzie już przy starcie systemu. Architektura podzespołu pamięci RAM w komputerze W celu zmniejszenia ilości cykli oczekiwania opracowano architektury pamięci, które zwiększają ogólną wydajność komputera i przyczyniają się do obniżenia kosztów. Najczęściej stosuje się w tym celu następujące rozwiązania: * Pamięć stronicowaną (ang. paged memory) * Pamięć z przeplotem (ang. interleaved memory) * Pamięć podręczną (ang. memory caching) Pamięć stronicowana jest prostym sposobem zwiększenia szybkości operacji angażujących pamięć poprzez podział pamięci na strony o rozmiarach od 512 bajtów do kilku kilobajtów. Układ stronicowania umożliwia dostęp do pamięci w obrębie strony bez wstawiania cykli oczekiwania. Jeżeli adres w pamięci, do którego chcemy się odwołać, znajduje się poza bieżącą stroną, dodawany jest jeden lub więcej cykli oczekiwania, aby można było dokonać koniecznego przełączenia strony. Pamięć z przeplotem pozwala na osiągnięcie większej wydajności niż pamięć stronicowana. Koncepcja ta polega na połączeniu dwóch banków pamięci w jeden, w którym znajdują się na przemian bajty parzyste i nieparzyste. Dzięki temu możliwy jest dostęp procesora do jednego banku w czasie trwania poprzedniego dostępu do drugiego banku. Poprzez naprzemienne dostępy do obydwu banków, procesor może zażądać danych z jednego banku, a gdy realizacja żądania się zbliża, procesor przełącza się na drugi bank i obsługuje kolejne żądanie. Realizacja pierwszego żądania odbywa się w czasie, gdy drugie żądanie wciąż oczekuje na realizację, itd. Dzięki mechanizmowi pamięci z przeplotem możliwe jest podwojenie efektywnej szybkości dostępu do pamięci, bez konieczności stosowania szybszych układów. Mechanizm pamięci z przeplotem znalazł zastosowanie w wielu komputerach i przyczynił się do wzrostu ich wydajności. Niektóre komputery oferujące ten mechanizm pozwalają na korzystanie z niego jedynie wówczas, gdy obydwa zainstalowane banki pamięci są takich samych rozmiarów, co oznacza zazwyczaj jednoczesne dodanie dwóch 36-bitowych modułów SIMM o takiej samej pojemności. Jeżeli dodany będzie tylko jeden bank albo zostaną dodane banki o różnych rozmiarach, to komputer będzie działał, jednak przeplot pamięci będzie wyłączony i nastąpi znaczny spadek wydajności. Więcej informacji na ten temat można znaleźć w dokumentacji komputera. Pamięć podręczna (cache) jest najpopularniejszą i zazwyczaj najbardziej efektywną techniką podnoszenia wydajności operacji angażujących pamięć. Technika ta opiera się na wykorzystaniu bardzo szybkiej pamięci o niewielkich rozmiarach (od 8 kB do 512 kB), tak aby transfer danych z procesora mógł się odbywać bez konieczności wstawiania cykli oczekiwań. Czas dostępu do pojedynczego banku pamięci cache wynosi nawet 2 ns. Ponieważ czas ten jest o wiele krótszy od najkrótszego czasu osiąganego dla pamięci DRAM, konieczne jest stosowanie specjalnych pamięci - SRAM. Pamięci SRAM, w odróżnieniu od DRAM, nie wymagają stałej obecności sygnału odświeżającego. Cecha ta, wraz z innymi właściwościami, daje w efekcie bardzo krótki czas dostępu do pamięci, lecz także podnosi jej cenę.
Pamięć podręczna Jak już wspomniałem w poprzednim podrozdziale, stosowanie pamięci podręcznej jest jednym z najefektywniejszych sposobów na zwiększenie szybkości operacji angażujących pamięć. Układy pamięci SRAM są, co prawda, drogie, jednak do zaimplementowania pamięci podręcznej potrzebna jest niewielka ich ilość. W pamięci SRAM, nadzorowanej przez specjalny układ kontrolera pamięci cache, przechowywane są kopie danych z tych obszarów pamięci RAM, do których procesor często się odwoływał. Są w niej także zawartości tych komórek pamięci, co do których układ kontrolera spodziewa się, że będą wkrótce wykorzystane. Pamięć cache jest więc rodzajem inteligentnego bufora pomiędzy procesorem a wolną pamięcią dynamiczną RAM. Trafienie (ang. cache hit) oznacza, że dane, których potrzebuje procesor, znajdują się w pamięci cache i do ich pobrania nie trzeba wstawiać dodatkowych cykli oczekiwania. Brak trafienia (ang. cache miss) oznacza, że dane, których potrzebuje procesor, nie zostały załadowane do pamięci cache i do ich pobrania potrzebne są dodatkowe cykle oczekiwania. Dobry kontroler pamięci cache zapewnia współczynnik trafień rzędu 95 procent, a nawet więcej (oznacza to, że komputer pracuje bez cykli oczekiwania przez 95 procent swojego czasu). W efekcie komputer z zewnątrz wygląda tak, jakby prawie przez cały czas była w nim pamięć o czasie dostępu 15 ns lub mniejszym, chociaż większość jego pamięci jest o wiele wolniejsza (i co za tym idzie, o wiele tańsza). Komputery z procesorem 486SX, SL i DX mają zintegrowany z procesorem kontroler pamięci cache wraz z 8 kB wewnętrznej pamięci cache, dzięki której komputer pracuje dużo szybciej niż poprzednie komputery. Procesor 486SLC posiada l kB wewnętrznej pamięci cache, procesory 486DX mają 16 kB wewnętrznej pamięci cache, podobnie procesory 486SLC2 i 486SLC3. W komputerach z procesorem 386SX i DX trzeba stosować zewnętrzną pamięć cache wraz z kontrolerem komputery te są pozbawione wewnętrznej pamięci cache. Procesory Pentium i Pentium II mają dwa obszary wewnętrznej pamięci cache jeden dla kodu instrukcji i jeden dla danych. Architektura ta została również przeniesiona do procesorów Pentium MMX i Pentium II. Oba te procesory są wyposażone w dwa osobne obszary pamięci cache o rozmiarze 16 kB dla kodu rozkazów procesora i dla danych. Pamięć ta jest pamięcią typu write-back, tzn. procesor może z niej korzystać zarówno do odczytywania, jak i zapisywania danych. Wewnętrzna pamięć cache procesora jest nazywana pamięcią cache pierwszego poziomu (ang. Level l cache - LI), natomiast zewnętrzna pamięć cache to pamięć cache drugiego poziomu (ang. Level 2 cache L2). Zazwyczaj im większy rozmiar pamięci cache, tym większa wydajność komputera. Większy rozmiar pamięci L2 cache nie stanowi jednak gwarancji większej wydajności komputera - można spotkać komputery z mniejszą pamięcią cache, które osiągają lepsze parametry niż komputery z większą pamięcią cache. Rzeczywiste parametry komputera zależą od wydajności kontrolera pamięci cache oraz od architektury komputera, np. pamięć cache zintegrowana z procesorem może zwiększyć wydajność o wiele bardziej niż zewnętrzna pamięć cache. Dodanie 256 kB pamięci L2 cache w komputerze IBM PS/2 Model 90 czy 95 z procesorem 486DX spowoduje nieznaczny tylko wzrost osiągów komputera w porównaniu z dodaniem do procesora 486 8 kB wewnętrznej pamięci cache (LI). Przyczyną tego jest większa wydajność pamięci LI niż L2. Ponadto dodanie pamięci cache nie spowoduje proporcjonalnego wzrostu szybkości komputera. Najlepszą wydajność uzyskamy stosując połowę całkowitego rozmiaru pamięci cache, jaką komputer może obsłużyć. Komputer PC wyposażony w 256 kB czy 512 kB pamięci cache drugiego poziomu stanowi rozwiązanie optymalne.
Aby osiągnąć maksimum wydajności i maksimum niezawodności, najlepiej jest korzystać z pamięci o czasie dostępu zalecanym przez producenta komputera. Szybsza pamięć będzie działać, jednak nie spowoduje przyrostu wydajności i z tego powodu jej kupno jest marnotrawstwem pieniędzy. Minimalny czas dostępu do pamięci na płycie głównej konkretnego typu komputera można znaleźć w dokumentacji technicznej. Jeżeli jesteśmy właścicielem komputera PC bez dokumentacji, to możemy skorzystać z dokumentacji innego komputera o parametrach podobnych do naszego, ponieważ większość komputerów kompatybilnych ma takie same parametry. Z powodu różnorodności rozwiązań spotykanych na rynku powinniśmy jednak pozyskać odpowiednią dokumentację od producenta sprzętu. Karty rozszerzające pamięć Do kart rozszerzających pamięć zazwyczaj uciekamy się w ostateczności. W wielu komputerach (np. starszych modelach firmy Compaą), których złącza gniazd rozszerzających są firmowym rozwiązaniem producenta, jesteśmy zmuszeni do zakupu kart z pamięcią tylko u producenta komputera. Własne rozwiązania kart z pamięcią stosuje również firma IBM w komputerze PS/2 Model 80. W innych standardowych komputerach, w których nie są stosowane własne rozwiązania producentów (np. IBM PC, XT i AT) i w większości komputerów kompatybilnych oraz większości komputerów PS/2, karty rozszerzające pamięć pasują do standardowych gniazd rozszerzających i możemy się w nie zaopatrzyć u setek producentów. Niestety, wszystkie karty rozszerzające pamięć umieszczane w standardowych gniazdach pracują z częstotliwością magistrali zewnętrznej, a nie z pełną częstotliwością płyty głównej. Z tego powodu w większości komputerów umieszcza się obecnie gniazda na moduły SIMM bezpośrednio na płycie głównej, dzięki czemu pamięć jest połączona bezpośrednio z magistralą procesora. Korzystanie w takich komputerach z kart rozszerzających pamięć powoduje tylko ich spowolnienie. W innych komputerach wykorzystuje się firmowe rozwiązania interfejsu łączącego magistralę lokalną z kartami rozszerzającymi pamięć. Rozwiązania te mogą jednak sprawiać dodatkowe problemy i być przyczyną dodatkowych kosztów przy rozszerzaniu czy wymianie pamięci. W niektórych przypadkach karta rozszerzająca pamięć może wykorzystywać wolniejsze układy pamięci, niż wymagałaby tego płyta główna (np. karty komputerów PS/2 Model 50 i 60 używają układów pamięci o czasie dostępu 120 ns). W wielu komputerach gniazda rozszerzające pamięć są taktowane zegarem o.ustalonej, dość niskiej częstotliwości, wynoszącej w większości komputerów z magistralą ISA 8 MHz, tak aby karty rozszerzające zainstalowane w komputerze pracowały poprawnie. Z powodu licznych funkcji interfejsu magistrali MCA (Micro Channel Architecture) karty rozszerzające pamięć w komputerze PS/2 mogą pracować wolniej niż pamięć zainstalowana na płycie głównej. Asynchroniczna magistrala MCA umożliwia niezależną od szybkości procesora pracę kart rozszerzających. W razie potrzeby urządzenia podłączone do magistrali mogą żądać dodatkowych cykli oczekiwania, aby wolniejsze karty mogły nadążyć z przesyłem informacji. Instalowanie pamięci w komputerze W tym podrozdziale zostanie omówione instalowanie w komputerze układów pamięci -zwłaszcza nowych układów i modułów pamięci RAM. Opiszemy także problemy, z jakimi najczęściej styka się użytkownimetody
ich unikania. Zamieścimy również informacje o konfiguracji komputera, które są konieczne, abyśmy mogli w pełni korzystać z dodatkowej pamięci.Podczas umieszczania w komputerze czy wyjmowania z niego modułów pamięci użytkownik najczęściej napotyka następujące trudności: ^ wyładowania elektrostatyczne ^ złamane lub wygięte nóżki układów ^ nieodpowiednie ustawienie przełączników i zworek Aby zapobiec wyładowaniom elektrostatycznym w czasie umieszczania w komputerze wrażliwych pod tym względem układów pamięci i kart, nie powinniśmy mieć na sobie odzieży syntetycznej ani butów na skórzanej podeszwie. Zanim zaczniemy pracę, powinniśmy pozbyć się ładunków elektrostatycznych przez dotknięcie ręką obudowy komputera. Jeszcze lepiej jest mieć na nadgarstku pasek uziemiający, zakupiony w tym celu w sklepie. Paski takie można dostać w sklepach z częściami elektronicznymi lub w sieci sprzedaży wysyłkowej. Pasek uziemiający składa się z przewodzącej obrączki uziemionej na drugim końcu przewodem przypiętym do obudowy komputera. W czasie gdy będziemy pracować, wtyczka kabla zasilającego powinna być włożona do gniazdka w celu uziemienia komputera, lecz sam komputer musi pozostać wyłączony.
Należy używać tylko paska uziemiającego z odpowiednim oznaczeniem, kupionego w sklepie; nie wolno stosować paska wykonanego samodzielnie. Paski sklepowe są wyposażone w rezystor o oporze jednego megaoma, który pełni rolę zabezpieczenia w razie przypadkowego dotknięcia punktu pod napięciem. Rezystor powoduje, że nasze ciało nie stanie się przewodem o niższej rezystancji, przez który prąd spłynie do ziemi porażając nas. Nieodpowiednio wykonany pasek może spowodować przepływ prądu przez nasze ciało do ziemi, z możliwością śmiertelnego porażenia. Innym problemem przy instalowaniu w komputerze układów w obudowie typu DIP czy modułów SIP są wygięte bądź złamane nóżki układów. Czasami nóżki fabrycznie nowych układów są wygięte w kształcie litery V, przez co stają się trudne do umieszczenia w podstawce. Jeżeli zauważymy, że układ w obudowie DIP ma wygięte w ten sposób nóżki, połóżmy układ na stole stroną z wygiętymi nóżkami w dół i delikatnie naciskając wygnijmy nóżki tak, aby znalazły się pod kątem 90 stopni w stosunku do obudowy układu. W przypadku modułu SIPP możemy posłużyć się szczypcami zakończonymi igłą, za pomocą których prostujemy nóżki modułu, tak aby odstawały od krawędzi w dół, przy zachowaniu jednakowych odstępów pomiędzy końcówkami. Następnie umieszczamy układy pojedynczo w gnieździe. Wyprostowanie końcówek układów SIPP czy modułów DIPP nie jest zbyt trudne, jednak przy braku uwagi można łatwo złamać nóżkę, co czyni taki układ czy moduł bezużytecznym. Przy prostowaniu nóżek powinniśmy być bardzo ostrożni. Aby wyprostować nóżki i dopasować je do otworów w podstawce, możemy, posłużyć się odpowiednimi narzędziami. Narzędzia takie nie są drogie, a pozwolą nam zaoszczędzić sporo czasu.
Każdy moduł czy układ pamięci musi być włożony w podstawkę w odpowiednim kierunku. Każdy układ ma na końcu oznaczenie wskazujące na sposób umieszczenia go w gnieździe. Może to być nacięcie, okrągłe wgłębienie albo jedno i drugie. Odpowiednie nacięcie może znajdować się też na podstawce układu. Na płycie głównej może być również legenda objaśniająca poprawny kierunek układu w gnieździe. Jeżeli oznaczenia takiego nie ma, to jako wzór mogą nam posłużyć inne układy. Pozycja nacięcia wskazuje na lokalizację pierwszej końcówki układu. Poprawne włożenie układu, tak aby nacięcie zgadzało się z pozycją nacięć na innych układach, uchroni nas przed następstwem włożenia układu na odwrót. Następnie delikatnie umieszczamy układ na podstawce, pilnując, aby każda końcówka była dopasowana do swojego otworu. Następnie pewnym ruchem dociskamy układ kciukami, aż będzie osadzony w podstawce. Kierunek osadzenia modułów SIMM jest wyznaczony nacięciem na jednym końcu modułu (przedstawiono na rysunku 7.10). W gnieździe modułu znajduje się odstający fragment, który musi pasować do nacięcia na końcu modułu. Wystający fragment uniemożliwia odwrotne włożenie modułu do gniazda; aby to zrobić, musielibyśmy złamać podstawkę. Rysunek 7.11 przedstawia powiększony fragment gniazda SIMM decydującego o położeniu modułu. Gniazda modułów SIPP są pozbawione takiego klucza i do użytkownika należy poprawne umieszczenie modułów w gnieździe. Jeżeli na płycie głównej nie ma żadnych oznaczeń, pomocna w tym względzie może być dokumentacja komputera. Jako wzór mogą także posłużyć moduły SIPP znajdujące się na płycie głównej. Rysunek 7.10. Nacięcie na module SIMM widać na lewej końcówce modułu. Najpienv należy umieścić moduł pod pewnym kątem, a następnie należy go wyprostować w gnieździe do pionowej pozycji, aż zatrzasną się zatrzaski
Włóż moduł pod
... a następnie wyprostuj
odpowiednim kątem.... Moduły DIMM posiadaj ą również nacięcia pozwalające na jednoznaczne określenie ich pozycji w gnieździe. Ukazano je na rysunku 7.12. Kiedy moduł jest poprawnie umieszczony w gnieździe (należy go wcisnąć), dźwignie znajdujące się z boków modułu powinny się podnieść do góry i zatrzasnąć w nacięciach z boku modułu. Przy instalacji nie należy używać siły -jeżeli coś nie pasuje, należy raczej szukać innego rozwiązania niż siłowe. Uszkodzenie uchwytów może spowodować pojawianie się przypadkowych błędów pamięci. Moduł DIMM wyjmujemy odchylając dźwigienki z boku modułu.
Rysunek 7.11. Zbliżenie ukazuje tylną stronę modułu SIMM umieszczoneg o poprawnie w gnieździe. Widać otwór, w który wchodzi plastikowy bloczek umocowany do gniazda
Rysunek 7.12. Nacięcia w module DIMM pasujące do kluczy w gnieździe
Otwór w module SIMM
Zatrzask mocujący
Bloczek zamocowany do gniazda, wpasowany w
Nacięcie z boku modułu Dopasowanie nacięcia modułu SIMM do gniazda
Moduł DIMM
Dżwigie nka zwalniaj
Jak wyjaśniono wcześniej w rozdziale, moduły DIMM są dostępne w kilku wersjach, na przykład: buforowane, niebuforowane, 3,3 V, 5 V. Buforowane moduły posiadają dodatkowy bufor pośredniczący w wymianie danych pomiędzy płytą główną a modułem. Niestety, spowalniają one pracę modułu, dlatego nie powinno się ich wykorzystywać w szybszych płytach głównych. Różnicowanie napięcia jest proste. Moduł 3,3 V nie pasuje do 5 V - i odwrotnie - z powodu różnic w konfiguracji kluczy w gnieździe DIMM.
Nowoczesne systemy PC korzystają jedynie z niebuforowanych, 3,3voltowych modułów DIMM. Komputery Apple oraz systemy niezgodne z PC mogą korzystać z innych rozwiązań. Klucze są przedstawione na rysunku 7.13.
Zanim zainstalujemy w komputerze moduły czy układy pamięci, upewnijmy się, że zasilanie komputera jest wyłączone. Następnie zdejmujemy obudowę komputera i wyjmujemy wszystkie obecne w nim karty. Moduły SIMM z łatwością wkładamy na ich miejsce, jednak z układami SIPP możemy mieć pewne problemy. Narzędzia do mocowania układów nie są bezwzględnie wymagane, jednak z ich pomocą umieszczenie układu w gnieździe może być o wiele prostsze. Do wyjmowania układów z podstawek posłużmy się specjalnym narzędziem albo śrubokrętem. Nie należy nigdy próbować wyciągać układów palcami, ponieważ możemy powyginać przy tym końcówki albo skaleczyć się w palec. Moduły SIMM wyjmujemy zwalniając uprzednio zatrzask i wyciągając moduł z gniazda. Po umieszczeniu w komputerze nowych układów pamięci i złożeniu komputera z powrotem w jedną całość, konieczna może się okazać zmiana ustawień przełączników czy zworek na płycie głównej. W oryginalnym komputerze PC znajdują się dwa bloki przełączników, po osiem przełączników w każdym. Pozycje od l do 4 w drugim bloku przełączników odzwierciedlają rozmiar całej pamięci obecnej w komputerze. W komputerze XT znajdował się tylko jeden blok przełączników, oznaczający liczbę banków pamięci na płycie głównej komputera, lecz nie na kartach rozszerzających pamięć. Komputery IBM AT i kompatybilne są pozbawione przełączników określających konfigurację pamięci. Zamiast tego trzeba w nich uruchomić program konfiguracyjny (SETUP), w którym poinformujemy komputer o całkowitej ilości pamięci w nim obecnej. Komputery kompatybilne z IBM AT mają zazwyczaj program konfiguracyjny w pamięci ROM BIOS. Program ten musi być uruchomiony po zainstalowaniu nowej pamięci, aby komputer był właściwie skonfigurowany. Po odpowiednim skonfigurowaniu komputera do pracy z nową pamięcią, powinniśmy uruchomić oprogramowanie diagnostyczne, aby się upewnić, że nowa pamięć funkcjonuje prawidłowo. Dla wszystkich typów komputerów dostępne są co najmniej dwa, a czasami trzy takie programy. Oto one (według ilości zwracanej informacji): •
POST (Power-On Self Test) - dysk z zaawansowanym programem diagnostycznym
•
Dysk z programem diagnostycznym użytkownika - dodatkowe oprogramowanie diagnostyczne
Program POST jest uruchamiany za każdym razem po włączeniu komputera; aby uzyskać dostęp do zaawansowanych programów na dysku diagnostycznym, należy nacisnąć Ctrl+A w menu powitalnym. Dostępnych jest wiele innych programów diagnostycznych pochodzących od niezależnych producentów oprogramowania użytkowego. Więcej informacji na temat takich programów można znaleźć w rozdziale 21. pt. ,,Programowe i sprzętowe narzędzia diagnostyczne".
Organizacja logiczna pamięci komputera Przestrzeń adresowa oryginalnego komputera PC wynosiła l MB, z czego górne 384 kB było zarezerwowane na potrzeby pamięci ROM BIOS, kart rozszerzających itp. Zarezerwowanie przez projektantów komputera górnej części obszaru adresowego procesora (pomiędzy 640 kB a 1024 kB), zamiast obszaru dolnego (od O do 640 kB) doprowadziło do powstania ograniczenia w ilości pamięci dostępnej dla systemu operacyjnego DOS do 640 kB (ang. convenctional niemoty barier). Ciągła presja wywierana na producentów komputerów i urządzeń peryferyjnych, aby nie zmieniać oryginalnej organizacji pamięci komputera i dzięki temu utrzymać całkowitą zgodność z poprzednimi komputerami PC, spowodowała wielki bałagan. W 20 lat po wyprodukowaniu pierwszego komputera PC, najnowsze komputery z procesorem Pentium II są pod wieloma względami ograniczone organizacją pamięci, będącą spadkiem po pierwszych komputerach PC. Użytkownicy, którzy chcieliby lepiej poznać i zrozumieć działanie swojego komputera, stają w pewnym momencie przed koniecznością wgłębienia się w problemy związane z organizacją pamięci. Z logicznego punktu widzenia pamięć komputera składa się z różnej wielkości fragmentów, z których tylko część może być wykorzystywana przez aplikacje. W tym podrozdziale omówimy podział logiczny pamięci współczesnego komputera PC. Możemy wyróżnić następujące obszary pamięci: •
Pamięć podstawowa (ang. convenctional memory)
•
Pamięć górna (ang. Upper Memory Area, UMA)
•
Pamięć „wysoka" (High Memory Area, HMA)
•
Pamięć powyżej pierwszego megabajta (ang. extended memory, XMS)
•
Pamięć rozszerzona (ang. expanded memory, EMS) rozwiązanie przestarzałe
•
Pamięć obrazu (ang. Video RAM), umieszczona w przestrzeni adresowej UMA
•
Pamięci ROM i RAM kart rozszerzających (umieszczone w przestrzeni adresowej UMA)
•
Pamięć ROM BIOS płyty głównej (umieszczona w przestrzeni adresowej UMA)
W kolejnych podrozdziałach opiszemy również konflikty angażujące pamięć oraz zjawisko zachodzenia na siebie różnych obszarów pamięci (ang. overlap). Omówimy także programy zarządzające pamięcią (ang. memory managers), pomagające w optymalnym skonfigurowaniu pamięci i lepszym jej wykorzystaniu. W komputerze AT obszar dostępnej dla procesora pamięci przekracza granicę l MB i osiąga 16 MB w komputerze 286, 4 GB w komputerach z procesorem 386DX (lub lepszym) i 64 GB w komputerze Pentium II. Obszar pamięci powyżej l MB określany jest w języku angielskim jako exiended memory (dosł. pamięć powiększona). Na rysunku 7.14 przedstawiono mapę pamięci komputera PC. Jeżeli procesor pracuje w trybie rzeczywistym, to do jego dyspozycji jest tylko pierwszy megabajt. Procesor pracujący w trybie chronionym ma dostęp do pełnej przestrzeni adresowej, w zależności od procesora równej 16 MB, 4096 MB lub 65536 MB. Pojedynczy znak na rysunku oznacza l kB pamięci, linia albo segment oznacza 64 kB. Przedstawiona mapa pamięci obejmuje dwa pierwsze megabajty. Przedstawiona mapa pamięci kończy się, z braku miejsca, po drugim megabajcie. W rzeczywistości obejmuje ona całą przestrzeń adresową komputera. Pamięć podstawowa Oryginalny komputer PC/XT mógł wykorzystywać l MB pamięci roboczej, zwanej również pamięcią RAM (Random Access Memory), l MB pamięci RAM komputera dzieli się na kilka bloków, z których każdy jest przeznaczony do innych zastosowań. System operacyjny DOS może zapisywać i odczytywać dane w obrębie całego megabajta, jednak programy mogą być ładowane jedynie do obszaru pamięci podstawowej, która w pierwszym komputerze PC wynosiła 512 kB. Pozostałe 512 kB zostało zarezerwowane do innych zastosowań, m.in. na potrzeby płyty głównej i kart rozszerzających. Po premierze komputera PC firma IBM zdecydowała, że na te cele wystarczy tylko 384 kB i zaczęła sprzedawać komputer z 640 kB pamięci operacyjnej. W ten sposób ustalił się standard obszaru pamięci o rozmiarze 640 kB, który może być wykorzystywany przez aplikacje systemu DOS. Po pewnym czasie dla wielu użytkowników stało się to ograniczeniem (ang. 640K barrier). Pozostałe 384 kB przestrzeni powyżej 640 kB zostało zarezerwowane na potrzeby karty graficznej, kart rozszerzających i pamięci ROM BIOS płyty głównej. Pamięć górna (ang. Upper Memory Area, UMA) Pamięć UMA jest zarezerwowanym obszarem pamięci o rozmiarze 384 kB, umieszczonym w górnej części pierwszego megabajta przestrzeni adresowej komputera PC/XT i PC/AT.
Obszar pamięci UMA rozciąga się od adresu AOOOO do FFFFF. 384 kB pamięci górnej dzieli się na trzy bloki: * Pierwsze 128 kB za obszarem pamięci podstawowej to obszar pamięci obrazu (ang. Video RAM), zarezerwowanej na potrzeby karty graficznej. Zawartość tego obszaru pamięci bierze udział w wyświetlaniu na ekranie monitora grafiki czy tekstu. Pamięć obrazu zajmuje obszar AOOOO-BFFFF. * Kolejne 128 kB zostało zarezerwowane na potrzeby pamięci ROM BIOS nie których kart rozszerzających. Pierwsze 32 kB tego obszaru są wykorzystywane przez większość kart graficznych VGA na potrzeby pamięci ROM BIOS tych kart. Pozostała część może być wykorzystywana przez inne karty rozszerzają ce. Obszar ten jest również wykorzystywany przez wiele kart sieciowych jako tzw. pamięć współdzielona (ang. Shared Memory). Pamięć ROM i pamięć RAM kart rozszerzających zajmują obszar adresowy COOOO-DFFFF. 4 Ostatnie 128 kB zarezerwowano dla potrzeb ROM BIOS płyty głównej komputera. (BIOS jest zbiorem podstawowych procedur wejścia/wyjścia, przechowywanych w pamięci RAM tylko do odczytu albo w pamięci ROM). W obszarze tym umieszczono również procedury testujące POST (Power-On Self Test) oraz program odpowiedzialny za inicjowanie komputera aż do momentu przejęcia kontroli nad komputerem przez procedury ładujące system operacyjny (ang. bootstrap loader). W większości komputerów wykorzystywane są jedynie górne 64 kB tego obszaru, dzięki czemu do dyspozycji zostają pozostałe 64 kB (lub więcej), pod warunkiem, że skorzystamy z programu zarządzającego pamięcią. W niektórych komputerach w obszarze tym znajduje się również program konfigu-racyjny (CMOS SETUP) komputera. ROM BIOS zajmuje obszar EOOOO-FFFFF. Nie we wszystkich komputerach AT całe 384 kB pamięci górnej są zawsze wykorzystywane. Zgodnie z założeniem przyjętym przez firmę IBM, obszar przeznaczony na pamięć obrazu zaczyna się od adresu AOOOO, który jest górną granicą obszaru 640 kB pamięci podstawowej. Zazwyczaj pamięć od adresu AOOOO jest wykorzystywana w trybie wysokiej rozdzielczości karty graficznych VGA, podczas gdy w trybie monochromatycznym i kolorowym trybie tekstowym wykorzystywane są odpowiednio obszary BOOOO-B7FFF i B8ÓOO-BFFFF. Starsze karty graficzne, inne niż VGA, wykorzystują tylko pamięć z segmentu BOOOO. Karty graficzne wykorzystują różne obszary pamięci w zależności od trybu, w jakim pracują. Jednak bez względu na to, ile pamięci RAM znajduje się na karcie graficznej, procesor traktuje całe 128 kB jak jeden obszar. Osiągnięto to dzięki przełączaniu boków pamięci karty graficznej, tak aby w razie potrzeby stawały się widoczne dla procesora w segmencie AOOOO-BFFFF. 384 kB pamięci w górnej części pierwszego megabajta miało być w założeniach obszarem pamięci ~arezen\-o\\-anej (ang. resen>ed inemor\~). Możliwe jest jednak wykorzystanie nieużywanych fragmentów pamięci do ładowania sterowników urządzeń (ang. device drivers), np. ANSI.SYS, czy programów rezydentnych, np. MOUSE.COM. Dzięki temu zwolniona zostaje pamięć podstawowa, którą normalnie zajmowałyby te programy. Obszary wolnej pamięci UMA różnią się lokalizacją i rozmiarem, w zależności od rodzajów kart rozszerzających w obecnych komputerze. Np. większość kart adapterów SCSI oraz kart sieciowych wymaga części tego obszaru na potrzeby modułów pamięci ROM czy RAM znajdujących się na tych kartach.
Adresacja segment: przesunięcie i adresacja liniowa
Dla niektórych użytkowników mylące bywa rozróżnienie pomiędzy adresem segmentu a adresem liniowym. Adresowanie pamięci z wykorzystaniem numerów segmentów wynika z wewnętrznej struktury mikroprocesorów Intel i jest wykorzystywane głównie w starszych, 16bitowych systemach operacyjnych. W adresacji takiej w osobnym rejestrze procesora jest pamiętany adres segmentu pamięci, a w innym rejestrze tzw. offset, czyli przesunięcie komórki pamięci liczone względem początku segmentu. Koncepcja ta jest bardzo prosta. Można ją zilustrować przykładem „hotelowym": załóżmy, że zatrzymaliśmy się w hotelu i ktoś poprosił nas o podanie numeru naszego pokoju. Hotel ma 10 pięter, numerowanych od zera do dziewięć, a na każdym piętrze znajduje się 100 pokoi, numerowanych od O do 99. Za segment przyjmijmy dowolną grupę 100 pokoi 0 numerach zaczynających się od wielokrotności dziesiątki, numer segmentu jest liczbą dwucyfrową. Początek segmentu o numerze 54 wskazywałby na pokój nr 540, a prze sunięcie od 00 do 99 oznaczałoby jeden ze 100 pokoi w segmencie. W naszym hotelowym przykładzie każdy segment byłby więc liczbą dwucyfrową z zakresu od 00 do 99, a w ramach każdego segmentu offset byłby również liczbą z zakresu od 00 do 99. Przyjmijmy, że jesteśmy w pokoju 541. Jeżeli ktoś nas teraz poprosi o podanie numeru pokoju w formacie segment:przesunięcie, a segment i offset (przesunięcie) są liczbami dwucyfrowymi, to moglibyśmy odpowiedzieć, że jesteśmy w segmencie 54 (pokój 540), a przesunięcie względem początku segmentu wynosi 1. Moglibyśmy też powiedzieć, że nasz segment ma numer 50 (pokój 500), a przesunięcie jest równe 41. Możliwe byłyby 1 inne odpowiedzi, np. segment 45 (pokój 450) i przesunięcie 91 (450 + 91 = 541). Możliwości te ilustruje tabelka: Segment 54 50 45
przesunięcie 01 41 91
wynik
Widać, że pomimo różnych numerów segmentu i przesunięcia, w wyniku otrzymujemy zawsze taki sam numer pokoju. W podobny sposób jest obliczany adres komórki pamięci w procesorach Intel x86. Taki schemat adresacji wprowadza czasami w błąd, szczególnie gdy piszemy programy w języku assemblera. W taki właśnie sposób działa mechanizm segmentacji pamięci w procesorach Intel. Zauważmy, że numery segmentu i przesunięcia pokrywają się ze sobą na wszystkich cyfrach za wyjątkiem cyfry pierwszej i ostatniej. Jeżeli dodając je do siebie uwzględnimy to przesunięcie, otrzymamy w wyniku pełny adres liniowy. W przypadku 32-bitowych systemów operacyjnych nie musimy już zaprzątać sobie głowy segmentacją. Adres liniowy jest tworzony bez ograniczeń typu segment:przesunięcie, podobnie jak np. pokój nr 541. Adres taki jest liczbą i nie jest obliczany na podstawie dwóch oddzielnych wartości. Na przykład karta adaptera SCSI może być wyposażona w pamięć ROM widoczną w obszarze D4000 - D7FFF. Liczby te podane w formacie segment:przesunięcie to odpowiednio D400:0000 i D700:0000. Część adresu odpowiadająca numerowi segmentu jest złożona z czterech najbardziej znaczących cyfr adresu liniowego, a część odpowiadająca przesunięciu to cztery najmniej znaczące cyfry
adresu liniowego. Segment i przesunięcie nie zachodzą na siebie tylko na swoich skrajnych cyfrach, dlatego końcowy adres bloku pamięci ROM mógłby być zapisany na jeden z czterech możliwych sposobów: Widać więc, że pomimo różnych wartości segmentu i przesunięcia, wszystkie one dają w rezultacie ten sam wynik. Możliwe sąjeszcze inne kombinacje segment:przesunięcie, które dadzą w wyniku D7FF: Widzimy, że możliwe są różne kombinacje. Poprawną i ogólnie przyjętą formą zapisu adresu w postaci liniowej jest D7FFF, natomiast większość osób zapisałaby go w postaci DOOO:7FFF. Zapisanie czterech mniej znaczących pozycji segmentu zerami sprawia, że zapis segment:przesunięcie staje się bardziej przejrzysty, a wynik łatwiejszy do obliczenia. Jeżeli poprawnie rozumiemy ideę zapisu segment:przesunięcie, to jest już jasne, dlaczego pięciocyfrowemu adresowi liniowemu odpowiadają czterocyfrowe adresy segmentu i przesunięcia. Istotną cechą nowszych 32-bitowych systemów operacyjnych jest możliwość mapowania obszaru pamięci RAM karty rozszerzającej w przestrzeni adresowej komputera z wykorzystaniem adresowania liniowego. Nie występuje tu ograniczenie rozmiaru bloku pamięci do 64 kB, jakie istnieje w przypadku pamięci UMA.
Pamięć obrazu (ang. Video RAM memory) Karta graficzna zainstalowana w komputerze wykorzystuje część pamięci operacyjnej do przechowywania informacji o obrazie wysokiej rozdzielczości lub tekstowym. Niektóre karty graficzne, np. VGA, są wyposażone w pamięć ROM BIOS, widoczną w obszarze przeznaczonym specjalnie do tego celu. Generalnie, im większa jest rozdzielczość obrazu i liczba dostępnych kolorów, tym więcej karta graficzna wykorzystuje pamięci. Istotne jest to, że większość kart VGA i SVGA jest wyposażona we własną pamięć RAM. która przechowuje informację o obrazie wyświetlanym w danej chwili na ekranie. Pamięć ta przyśpiesza również operacje odświeżania ekranu. W przypadku standardowej konfiguracji przestrzeni adresowej komputera, 128 kB pamięci jest zarezerwowane na potrzeby kart graficznych do przechowywania informacji o obrazie wyświetlanym na ekranie. Blok ten znajduje się w segmentach AOOO i BOOO. Pamięć ROM karty graficznej wykorzystuje dodatkowy obszar pamięci UMA w segmencie COOO. Umieszczenie pamięci obrazu w obszarze bloku AOOO spowodowało powstanie ograniczenia pamięci podstawowej dostępnej dla systemu DOS do 640 kB. DOS może korzystać z dostępnej pamięci w obrębie pierwszego megabajta, aż do początku obszaru pamięci obrazu. Korzystanie z kart graficznych MDA czy CGA umożliwia dostęp systemu DOS do większego obszaru niż 640 kB. W przypadku kart VGA, EGA i MCGA górną granicą, jest adres AOOOO, natomiast karty MDA czy CGA zadowalają się mniejszym obszarem, dzięki czemu zwolniona pamięć może być wykorzystywana przez system DOS i aplikacje. Na zamieszczonych rysunkach widać, że w przypadku karty MDA, DOS ma do dyspozycji dodatkowe 64 kB pamięci (cały segment AOOO), w rezultacie czego aplikacje systemu DOS mają do dyspozycji 740 kB. Również karta CGA pozostawia do dyspozycji systemu DOS ciągły obszar pamięci RAM o rozmiarze 736 kB. Karty EGA, VGA czy MCGA ograniczają obszar pamięci systemu DOS do 640 kB, ponieważ adresy powyżej tego obszaru są wykorzystywane jako pamięć obrazu. Z powyższych względów maksymalna pamięć dostępna dla programów systemu DOS zależy od zainstalowanej w komputerze karty graficznej. Tabela 7.12 pokazuje, jak maksymalny obszar pamięci dla systemu DOS zależy od karty graficznej komputera. Tabela 7.12. Ograniczenie pamięci RAM dostępnej dla systemu DOS w zależności od stosowanej karty graficznej Typ karty graficznej Maksymalna ilość pamięci 3V 6 ł ' dostępnej w systemie DOS MDA (Monochrome Display Adapter) 704 kB CGA (Color Graphics Adapter) 736 kB EGA (Enhanced Graphics Adapter)640 kB VGA (Video Graphics Adapter)640 kB SVGA (Super VGA) 640 k B XGA (eXtended Graphics Array) 640 kB Korzystanie z pamięci powiększonej do rozmiaru 736 kB jest możliwe, zależy jednak od typu karty graficznej, kart rozszerzających pamięć, zawartości pamięci ROM płyty głównej oraz typu komputera. Korzystanie z części tej pamięci jest możliwe w komputerze z procesorem 386 lub lepszym. Za pomocą programu menadżera pamięci, np. EMM386 dostarczanego z systemem DOS, pracującego w trybie 386+ MMU, możliwe jest takie skonfigurowanie części pamięci powyżej pierwszego
megabajta, aby była ona widoczna w dodatkowym obszarze powyżej 640 kB. Kolejne podrozdziały opisują wykorzystanie przestrzeni adresowej przez karty graficzne. Na rysunkach przedstawiono obszary pamięci wykorzystywane przez karty monochromatyczne, karty EGA, VGA oraz karty IBM PS/2. Informacje te mogą być dość istotne, ponieważ może się okazać, że niektóre obszary pamięci są niewykorzystane, a w wolne miejsce można ładować programy - sterowniki. Obszar adresowy zajmowany przez monochromatyczną kartę MDA (Monochrome Display Adapter) Rysunek 7.15 przedstawia obszary pamięci wykorzystywane przez oryginalną kartę MDA. Karta ta korzysta tylko z 4 kB zarezerwowanej pamięci RAM w obszarze BOOOO-BOFFF. Nie jest przy tym zajmowana żadna przestrzeń w segmencie COOO, ponieważ zawartość pamięci ROM karty znajduje się w rzeczywistości w pamięci ROM płyty głównej.Zauważmy, że chociaż oryginalna karta MDA wykorzystywała tylko 4 kB pamięci od adresu BOOOO, karta VGA pracująca w trybie emulującym tryb monochromatyczny (Mono Text Modę) wykorzystuje ponadto dodatkowe 32 kB. Rzeczywista karta MDA nie posiada pamięci ROM BIOS, zamiast tego jest obsługiwana przez sterowniki znajdujące się w pamięci ROM BIOS płyty głównej.
Obszar adresowy zajmowany przez kartę CGA (Color Graphics Adapter) Rysunek 7.16 przedstawia obszary pamięci wykorzystywane przez kartę CGA. Karta ta zajmuje 16 kB obszaru zarezerwowanej pamięci RAM pomiędzy adresami B8000 i BBFFF. Nie jest przy tym zajmowana żadna przestrzeń w segmencie COOO, ponieważ zawartość pamięci ROM karty znajduje się w rzeczywistości w pamięci ROM płyty głównej. Karta CGA zwalnia obszar AOOOO-B7FFF, który może być następnie wykorzystany przez programy zarządzające pamięcią jako dodatkowa pamięć dla systemu DOS. Wyklucza to jednak korzystanie z programów pracujących w trybie graficznym, np. Windows.
Oryginalna karta CGA wymagała jedynie 16 kB obszaru od adresu B8000, podczas gdy karta VGA pracująca w trybie emulacji karty CGA (kolorowy tryb tekstowy) może potrzebować 32 kB pamięci od adresu B8000. Oryginalna karta CGA nie jest wyposażona w pamięć ROM BIOS, zamiast tego jest obsługiwana przez sterowniki programowe rezydujące w pamięci ROM BIOS płyty głównej. Obszar adresowy zajmowany przez kartę EGA. (Enhanced Graphics Adapter) Rysunek 7.17 przedstawia obszary pamięci wykorzystywane przez kartę EGA. Karta ta wykorzystuje całe 128 kB pamięci RAM od adresu AOOOO do BFFFF. Pamięć ROM z procedurami odpowiedzialnymi za obsługę karty jest częścią karty i zajmuje 16 kB przestrzeni adresowej pomiędzy adresami COOOO i C3FFF.Oryginalna karta IBM EGA wykorzystuje tylko 16 kB przestrzeni adresowej od adresu COOOO na potrzeby swojej pamięci ROM. Modele kart kompatybilnych mogą wymagać dla swoich pamięci ROM obszaru 32 kB. Interesujące w przypadku kart EGA (odnosi się to także do kart VGA) jest to, że segmenty pamięci od adresów AOOOO i BOOOO nie są wykorzystywane jednocześnie. Np. kiedy włączony jest tryb wysokiej rozdzielczości, wykorzystywany jest tylko obszar AOOOO, podczas gdy pod obszar BOOO nie jest mapowana (podłączona) żadna pamięć. Kiedy programowo przełączymy kartę w kolorowy tryb tekstowy, to natychmiast zwolni się segment AOOOO, a pojawi się pamięć drugiej połowy segmentu BOOOO. Pamięć RAM monochromatycznego trybu tekstowego we współczesnych komputerach nie jest właściwie nigdy wykorzystywana, ponieważ bardzo mało programów wymaga przełączenia karty w ten tryb. Na rysunku 7.17 przedstawiono także obszar zajmowany standardowo przez ROM BIOS płyty głównej komputera, dzięki czemu uzyskujemy mapę całego obszaru pamięci UMA.Karta EGA zyskała pewną popularność, jednak szybko zeszła w cień karty VGA, która pojawiła się wkrótce po niej. Większość danych technicznych karty EGA dotyczących zajmowanych obszarów przestrzeni adresowej odnosi się również do karty VGA, ponieważ jest ona kompatybilna „wstecz" z kartą EGA.
Obszar adresowy zajmowany przez kartę (Video Graphics Adapter) Wszystkie karty kompatybilne z VGA, również karty SYGA (Super VGA), nie różnią się prawie wcale od karty YGA pod względem zajmowanych obszarów pamięci. Podobnie jak w przypadku karty EGA, karty te zajmują 128 kB pamięci RAM jako pamięć obrazu w obszarze AOOOO-BFFFF, jednak nie całą pamięć naraz. Podobnie jak poprzednio, pamięć obrazu jest podzielona na trzy różne obszary, każdy z nich jest wykorzystywany tylko wtedy, kiedy karta pracuje w odpowiadającym mu trybie. Jedyną różnicą jest to, że właściwie wszystkie karty YGA wykorzystują w pełni przydzielone im 32 kB obszaru adresowego na potrzeby swoich pamięci ROM (obszar COOOO-C7FFF). Rysunek 7.18 przedstawia mapę pamięci kart YGA i SYGA.Widać, że typowa karta YGA wykorzystuje całe 32 kB obszaru na potrzeby swojej pamięci ROM, zawierającej programowe sterowniki karty. Niektóre karty YGA mogą zajmować nieco mniejszy obszar, jednak należy to do rzadkości. Podobnie jak w przypadku karty EGA, obszar pamięci RAM obrazu uaktywnia się jedynie wówczas, gdy karta jest w odpowiednim trybie pracy. Karta YGA pracująca w trybie wysokiej rozdzielczości wykorzystuje tylko segment AOOOO, a w kolorowym trybie tekstowym tylko drugą połowę segmentu BOOOO. Karta YGA prawie nigdy nie pracuje w monochromatycznym trybie tekstowym, dlatego pierwsza połowa segmentu BOOOO pozostaje
niewykorzystana (BOOOO-B7FFF). Na rysunku 7.18 widać także obszar zajmowany standardowo przez ROM BIOS płyty głównej, dzięki czemu uzyskujemy mapę całego obszaru pamięci UMA.Komputery z płytą główną w formacie LPX (Low Profile), zamknięte w obudowie typu LPX lub Slimline, mają kartę graficzną wbudowaną w płytę główną. Pomimo że BIOS karty graficznej i BIOS płyty głównej mogą w tych komputerach pochodzić od tego samego producenta, podzespół karty graficznej zawsze emuluje standardową kartę YGA. BIOS karty graficznej jest widoczny w pierwszej połówce (32 kB) segmentuCOOOO, tak jakby był to BIOS osobnej karty VGA włożonej w gniazdo rozszerzające. Wbudowana w płytę główną karta graficzna może być łatwo wyłączona za pomocą przełącznika lub zworki, co umożliwia korzystanie z osobnej karty VGA, którą wkłada się do gniazda rozszerzającego. Odłączenie wewnętrznej karty graficznej, odpowiadającej jednak funkcjonalnie normalnej karcie VGA, umożliwia używanie osobnej karty, co rozwiązuje problem ewentualnego braku kompatybilności w przypadku gdy sterowniki karty są częścią ROM BIOS płyty głównej.
Niektórzy użytkownicy, obecni na rynku komputerowym w roku 1987, pamiętają może. jak wiele czasu zajęło producentom klonów kart graficznych dokładne skopiowanie karty VGA firmy IBM. Musiały minąć niemal dwa lata (prawie do roku 1989), zanim stały się dostępne karty VGA niezależnych producentów, które pracowały poprawnie i bez żadnych problemów z każdym oprogramowaniem współpracującym z kartą IBM VGA. Niektórzy moi wspólnicy, którzy kupili jedne z pierwszych modeli tych kart, niechcąco stali się członkami klubu określanego złośliwie jako „ROM tygodnia". W trakcie ich eksploatacji stale pojawiały się różne kłopoty; wiele układów ROM tych kart, dostarczonych już jako nowsze wersje, zostało odesłanych do producenta, bo pojawiły się nowe problemy. Nie miałem ochoty płacić za przywilej testowania modeli beta kart, które według zapewnień producentów miały coraz bardziej zbliżać się do VGA, poszedłem więc po linii najmniejszego oporu i za 596$ stałem się posiadaczem karty IBM VGA (PS/2 Display Adapter). Kwota, którą wówczas zapłaciłem, odpowiada w przybliżeniu cenie najlepszych dostępnych dziś na rynku kart AGP. Karta ta sprawowała się bardzo dobrze i nigdy nie miałem problemów ze współpracą z oprogramowaniem. Po pewnym czasie doświadczyłem jednak dość zaskakujących problemów z pamięcią wykorzystywaną przez kartę. Było to moje pierwsze zetknięcie się z tym, co nazwałem pamięcią notatnikową (ang. scratch pad memory) karty. Odkryłem, że różne rodzaje kart rozszerzających mogą wykorzystywać niektóre obszary w pamięci UMA jako pamięć notatnikową do swoich potrzeb. W obszarze tym jest widoczna pamięć RAM obecna na karcie, która przechowuje status karty, dane konfiguracyjne i pozostałe informacje o zmiennym charakterze. Większość kart rozszerzających ma taką pamięć do swoich celów, lecz nie umieszcza jej w przestrzeni adresowej procesora. Niektóre jednak karty ,,mapują" swoją pamięć podręczną w przestrzeni adresowej procesora, aby informacje z niej mogły być wykorzystywane przez sterowniki programowe. Na rysunku 7.19 przedstawiona jest mapa pamięci karty graficznej komputera IBM PS/2 (karta IBM VGA). W zakresie zajmowanego obszaru pamięci obrazu nie ma różnicy pomiędzy moją kartą a dowolną inną kartą VGA. Jedyną różnicą jest pamięć ROM, która przechowuje procedury obsługi karty, zajmuje ona 24 kB przestrzeni adresowej w obszarze COOOO-C5FFF. Nietypowa jest również 2-kilobajtowa „dziura" od adresu C6000 oraz obszar 6 kB pamięci notatnikowej od adresu C68000, a także dodatkowe 2 kB pamięci notatnikowej od adresu CAOOO. Zwłaszcza te ostatnie 2 kB pamięci sprawiły mi pewną niespodziankę, gdy zainstalowałem w komputerze kartę adaptera SCSI wyposażoną w 16 kB pamięci ROM BIOS o
domyślnym adresie startowym C8000. Natychmiast wystąpił konflikt, który kompletnie sparaliżował pracę całego komputera. Nie można było wystartować systemu, na monitorze nic nie było widać, a z głośnika słychać było tylko dźwięki sygnalizujące błąd karty graficznej. W pierwszej chwili pomyślałem, że niechybnie spaliłem kartę graficzną, jednak po wyjęciu adaptera SCSI wszystko działało normalnie.Sprawdziłem również działanie komputera z adapterem SCSI i starszym modelem karty CGA, doszedłem więc do wniosku, że na pewno zaistniał konflikt. W dokumentacji technicznej karty nie było jednak jasnych informacji na temat pamięci notatnikowej, musiałem do tego dojść sam metodą prób i błędów. Jeżeli w komputerze z kartą graficzną IBM YGA pojawią się konflikty współpracy z innymi kartami, to teraz już wiadomo, co jest przyczyną. Oczywiście, nie można było w żaden sposób przesunąć 2-kilobajtowego „kawałka" pamięci notatnikowej. Musiałem jednak jakoś sobie radzić z tym problemem, dopóki miałem w komputerze kartę IBM YGA. Problem z adapterem SCSI rozwiązałem przesuwając obszar zajmowany przez BIOS karty SCSI pod inny adres. Spotkałem również inne typy kart VGA z pamięcią notatnikową, jednak we wszystkich tych kartach pamięć ta była ulokowana w 32-kilobajtowym obszarze COOOO-C7FFF, który normalnie jest przydzielony dla pamięci ROM BIOS płyty głównej. Na komputerze, którego BIOS zajmował 24 kB, mogłem zaobserwować, jak inne karty wykorzystują pozostałe 8 kB na swoją pamięć notatnikową, jednak w żadnej z tych kart - oprócz karty IBM YGA - obszar pamięci podręcznej nie wychodził poza adres C8000. Pamięć ROM i specjalna pamięć RAM kart rozszerzających Drugi 128-kilobajtowy blok pamięci górnej (UMA), począwszy od adresu COOOO, zarezerwowano na potrzeby programów lub procedur BIOS (Basic Input Output System) zaszytych w pamięci kart rozszerzających. Procedury te są pamiętane w specjalnych układach pamięci „tylko do odczytu" (ang. read-only memory, ROM). Informacja w pamięci ROM jest pamiętana dzięki trwałym przepaleniom struktury pamięci, a jej zawartość nie może być zmieniana przez komputer. Pamięć ROM nadaje się do przechowywania programów, których kod nie ulega zmianie w czasie pracy komputera, a które zawsze muszą być obecne w pamięci. Przykładowe karty, które mogą mieć pamięć ROM, to karty graficzne, kontrolery dysków twardych, urządzenia komunikacyjne czy karty rozszerzające pamięć komputera.W komputerach z procesorem 386 (lub lepszym) programy-sterowniki urządzeń albo programy rezydentne dzięki zastosowaniu tzw. menadżerów pamięci - np. MS DOS 6.0 MEMMAKER, IBM DOS RAMBOOST czy innych producentów, np. QMM firmy Quarterdeck - mogą być ładowane w wolne obszary pamięci UMA. Aby zmienić obszar pamięci RAM przyznany karcie rozszerzającej, trzeba najpierw zajrzeć do dokumentacji karty. W większości starszych kart zmiana obszaru adresowego karty polega na przestawieniu niektórych przełączników czy zworek. Ich znaczenie bez pomocy instrukcji może nie być całkiem oczywiste. Większość nowych kart, zwłaszcza kart Plug-and-Play, pozwala na programową zmianę ich ustawień. Odpowiednie programy są dostarczane wraz z kartą albo są to programy typu Menadżer konfiguracji (Configuration Manager) spotykane w nowszych systemach operacyjnych, takich jak Windows 95 czy OS/2. Pamięć ROM BIOS karty graficznej BIOS karty graficznej zapewnia komunikację pomiędzy układem kontrolera karty (ang. video chipset) a pamięcią obrazu (video RAM). Na potrzeby BIOS-u karty graficznej zarezerwowano całe 128 kB pamięci
UMA od adresu COOO, jednak popularne karty graficzne w komputerach PC nie wykorzystują całej tej przestrzeni adresowej. W tabeli 7.13 zebrano dane o zajętości przestrzeni adresowej przez BIOS popularnych typów kart graficznych. Niektóre spośród bardziej zaawansowanych kart graficznych z tzw. akceleracją wykorzystują większość lub nawet cały obszar 128 kB pamięci górnej od adresu COOO, co pozwala na przyśpieszenie operacji odmalowania obrazu w systemach operacyjnych Windows, OS/2 i innych systemach wykorzystujących graficzny interfejs użytkownika (ang. Graphical User Interface - GUI). Karty te mogą dodatkowo zawierać 4 MB lub więcej własnej pamięci RAM. Dane o aktualnie wyświetlanym obrazie mogą być dzięki temu szybko pobierane bez udziału procesora. BIOS kontrolerów twardego dysku i adapterów SCSI Adresy w pamięci UMA w obszarze COOOO-DFFFF są także wykorzystywane przez BIOS wielu kart-kontrolerów dysków twardych. Tabela 7.14 przedstawia szczegółowo obszar pamięci i adresy wykorzystywane często przez BIOS tych kart. Karty kontrolerów dysku twardego czy adaptera SCSI w indywidualnych przypadkach mogą wykorzystywać inne niż podane obszary przestrzeni adresowej, jednak najczęściej wykorzystują one segment od adresu C800, ponieważ adres ten jest określony w standardzie komputera IBM PC. Właściwie wszystkie obecnie spotykane kontrolery dyskowe czy adaptery SCSI, wyposażone we własny BIOS, umożliwiają łatwą zmianę adresu startowego BIOS-u w segmentach COOO i DOOO. Lokalizacje wymienione w tabeli 7.14 są adresami domyślnymi, wykorzystywanymi przez większość kart. Jeżeli jednak adres jest używany przez inną kartę, to w dokumentacji nowej karty należy sprawdzić, jak można zmienić domyślny adres startowy BIOS-u karty, aby uniknąć konfliktu.Zwróćmy uwagę, jak zostały rozmieszczone obszary adresowe adaptera SCSI. W pamięci UMA nie ma teraz konfliktów adresowych, jednak powyższy przydział pamięci dla BIOS-u urządzenia SCSI spowodował fragmentację wolnej przestrzeni w pamięci UMA. W większości komputerów w segmencie EOOO nie jest umieszczony żaden BIOS, dlatego 64 kB tego obszaru pozostaje wolne. W powyższym przykładzie nie ma już innych urządzeń zajmujących przestrzeń adresową procesora, pojawił się natomiast
Karty sieciowe Karty sieciowe także korzystają z segmentów w pamięci UMA, zaczynających się od adresów COOO i DOOO. Dokładny rozmiar zajmowanej przestrzeni oraz adres początkowy dla konkretnego modelu karty zależy od typu karty i jej producenta. Niektóre karty sieciowe w ogóle nie korzystają z zasobów adresowych komputera. Zapotrzebowanie karty sieciowej na zasoby adresowe ma dwie przyczyny: •
w pamięci ROM karty rezyduje program inicjujący, tzw. IPL ROM (ang. Initial Program Load or Boot)
•
karta korzysta ze współdzielonej pamięć RAM (ang. shared me mory)
IPL ROM jest układem pamięci ROM, najczęściej o rozmiarze 8 kB, zawierający program ładujący (ang. bootstrap loader), który umożliwia wystartowanie komputera z serwera plików (ang. file server) za pośrednictwem sieci lokalnej. Rozwiązanie to pozwala na usunięcie z komputera twardego dysku, dzięki czemu otrzymujemy bezdyskową stację roboczą (ang. diskless workstation). W takim komputerze nie ma żadnego urządzenia dyskowego (stacji dyskietek, dysku twardego), z którego mógłby zostać załadowany system operacyjny. Pamięć IPL ROM udostępnia procedury potrzebne na zlokalizowanie na serwerze plików obrazu systemu operacyjnego i załadowanie go do pamięci komputera, tak jakby był on ładowany z wewnętrznego napędu dyskowego komputera. Jeżeli komputer nie jest wykorzystywany do pracy jako bezdyskową stacja robocza, to opłaca się wyłączyć pamięć IPL ROM. Pamiętajmy jednak, że większość kart sieciowych nie pozwala na wyłączenie IPL ROM, oznacza to, że tracimy 8 kB przestrzeni adresowej, która mogłaby być wykorzystana przez inne urządzenie, nawet jeżeli układ IPL ROM zostanie wyjęty z gniazda. Pamięć współdzielona jest niewielkim obszarem pamięci RAM karty sieciowej, który jest widoczny w przestrzeni adresowej UMA komputera. Zamapowany fragment pamięci UMA jest wykorzystywany jako okno, przez które odbywa się komunikacja komputera z siecią i które zapewnia szybki transfer danych pomiędzy kartą sieciową a komputerem. Pionierem w tej dziedzinie była firma IBM, która po raz pierwszy zastosowała pamięć współdzieloną w swoich kartach sieciowych Token Ring. Obecnie pamięć współdzielona jest powszechnie stosowana również przez innych producentów kart sieciowych. Firma IBM opracowała koncepcję pamięci współdzielonej, gdy okazało się, że transfery danych za pośrednictwem kanałów DMA nie były dostatecznie szybkie w większości komputerów. Powodem wolnych transferów DMA była architektura kontrolera DMA i magistrali komputera, dotyczyło to zwłaszcza komputerów z 16-bitową magistralą ISA. Kart}' sieciowe, które nie korzystają z pamięci współdzielonej, przesyłają dane za pośrednictwem DMA albo w tzw. transferach programowanych (ang. Programmed I/O - PIO). Pamięć współdzielona w komputerach z magistralą ISA jest szybszym rozwiązaniem niż kanały DMA czy przesyły PIO, wymaga jednak wolnego 16-kilobajtowego bloku w pamięci UMA. Większość standardowych kart sieciowych wykorzystuje PIO, ponieważ dzięki temu karty te są prostsze w konfiguracji i nie potrzebują wolnych adresów w pamięci UMA. Natomiast większość zaawansowanych kart sieciowych korzysta z pamięci współdzielonej. Pamięć współdzielona w większości kart ma rozmiar 16 kB i może być umieszczona w segmentach COOO lub DOOO pod adresem wybranym przez użytkownika, który jest wielokrotnością 4 kB.
Rysunek 7.22 przedstawia obszary zajmowane domyślnie przez pamięć IPL ROM i pamięć współdzieloną karty sieciowej IBM Token Ring, przy czym ta mapa pamięci wyglądałaby podobnie także w przypadku innych kart sieciowych, np. Ethernet.Na rysunku 7.22 pokazano również obszar zajmowany standardowo przez BIOS karty VGA, ponieważ karta ta znajduje się w prawie każdym komputerze. Zauważmy, że domyślny przydział adresów na potrzeby pamięci IPL ROM i pamięci współdzielonej można łatwo zmienić odpowiednio konfigurując kartę sieciową. Większość pozostałych typów kart sieciowych przypomina pod względem pamięci współdzielonej i IPL ROM kartę Token Ring, chociaż rozmiary obszarów przeznaczonych na te cele w innych kartach i domyślne adresy mogą być inne. Większość kart z pamięcią IPL ROM umożliwia odłączenie samej pamięci albo jej gniazda, tak że nie będą już potrzebne dodatkowe zasoby adresowe. Pozwala to na zaoszczędzenie obszaru UMA i zapobiega ewentualnym przyszłym konfliktom, gdy nie zamierzamy korzystać z pamięci IPL ROM.
Zauważmy, że urządzenie SCSI wpasowane w wolne obszary na rysunku 7.22 mogłoby być umieszczone pod domyślnym adresem swojego BIOS-u DCOOO, jak również pod optymalną lokalizacją C8000. Domyślne usytuowanie obszaru pamięci współdzielonej karty Token Ring nie jest optymalne i powoduje powstanie fragmentacji w obszarze UMA. Modyfikując ten obszar moglibyśmy osiągnąć lepszą konfigurację. Rysunek 7.23 przedstawia optymalną konfigurację komputera z kartą sieciową Token Rin« i kartą SCSI. Powyższa konfiguracja pozwala na ładowanie sterowników programowych do pojedynczego, ciągłego bloku pamięci o rozmiarze 120 kB w obszarze UMA. Zauważmy. że pamięć IPL ROM została przesunięta pod adres DOOOO i jest ostatnim blokiem pamięci przed początkiem obszaru wolnego. Gdy nie zamierzamy korzystać z pamięci IPL ROM, możemy ją wyłączyć, a obszar wolnej pamięci zwiększy się do 128 kB i nadal będzie ciągłym blokiem. Jeżeli pozostawimy ustawienia domyślne karty sieciowej i adaptera SCSI, to nastąpi fragmentacja obszaru UMA na trzy części: 16 kB. 40 kB i 64 kB. Pamięć ta będzie nadal dostępna, jednak takie rozwiązanie byłoby dalekie od optymalnego.Proszę zwrócić uwagę, iż usługa Plug-and-Play w Windows 9X/NT nie ma na celu optymalizowania użytych adresów, a jedynie zapobieganie konfliktom. Oczywiście w przypadku sterowników 32-bitowych ich zlokalizowanie nie wpływa na obszar UMB - są one umieszczone w obszarze pamięci rozszerzonej. Inne typy pamięci ROM w obszarze UMA Oprócz pamięci ROM BIOS kontrolerów dysków twardych, adapterów SCSI czy kart sieciowych, segmenty COOO i DOOO w obszarze UMA są wykorzystywane przez takie urządzenia jak emulatory terminali (ang. terminal emulators), karty bezpieczeństwa (ang. security adapters), karty rozszerzające pamięć (ang. memory boards) i inne karty. Niektóre z tych urządzeń wymagają części obszaru UMA tylko na potrzeby swoich pamięci ROM BIOS, inne mogą umieszczać w segmentach UMA swoją pamięć RAM. Informacje dotyczące konkretnego typu karty można znaleźć w jej dokumentacji. Pamięć ROM BIOS płyty głównej Ostatnie 128 kB pamięci UMA zarezerwowano na potrzeby pamięci ROM BIOS płyty głównej. Program BIOS, zapisany w pamięci ROM, odpowiada za obsługę komputera w czasie inicjowania systemu, a w czasie normalnej pracy komputera przechowuje sterowniki różnych urządzeń. Programy-sterowniki muszą być dostępne natychmiast, dlatego
nie mogą być ładowane z urządzenia zewnętrznego, takiego jak dysk. Programy zapisane w pamięci ROM płyty głównej pełnią następujące funkcje: •
Przeprowadzanie testu POST (Power-On Self Test}, który jest zbiorem procedur sprawdzających działanie płyty głównej, kontrolerów dyskowych, kart graficznych, klawiatury i innych komponentów niezbędnych do prawidłowego funkcjonowania komputera. Procedury te są użyteczne, gdy staramy się zdiagnozować uszkodzenia czy rozwiązujemy problemy ze sprzętem.
•
^ Procedury programu lądującego (ang. bootstrap loader) inicjują poszukiwanie systemu operacyjnego. Jeżeli na dysku lub dyskietce zostanie znaleziony system operacyjny, to nastąpi jego załadowanie do pamięci RAM, a po uruchomieniu system operacyjny przejmie kontrolę nad komputerem.
•
BIOS jest interfejsem programowym (nadrzędnym programem nadzorującym) dla wszystkich zasobów sprzętowych komputera. Z jego pomocą możliwy jest łatwy dostęp do zasobów komputera w aplikacjach poprzez wywołanie modułu podprogramu rezydującego w BlOS-ie. Alternatywą byłoby bezpośrednie odwoływanie się do urządzeń.
•
+ Program CMOS Seiup jest stosowany do zmieniania informacji o konfiguracji komputera. Najczęściej uruchamia się go odpowiednią kombinacją klawiszy naciśniętą w czasie startu komputera. Za jego pomocą można zmieniać podstawowe parametry płyt głównych: zarządzanie energią, opcje chipsetów itp. Nie wszystkie komputery posiadają ten program w pamięci ROM. Niektóre trzeba uruchamiać z dysków.
Segmenty EOOO i FOOO w przestrzeni adresowej procesora są zarezerwowane na potrzeby pamięci ROM BIOS płyty głównej, jednak tylko niektóre komputery klasy AT wykorzystują cały ten obszar. Komputery PC/XT wymagają jedynie segmentu EOOO. Większość komputerów AT wykorzystuje cały obszar od adresu FOOO, może również dekodować (lecz nie wykorzystywać) któryś z segmentów od adresu EOOO. Dekodując dany obszar adresowy, płyta główna AT po prostu przejmuje kontrolę nad jego adresami, co wyklucza przydzielenie tego obszaru dla innych urządzeń. Nie jest wówczas możliwe zainstalowanie w komputerze kart, które by korzystały z tego obszaru adresowego. Dlatego większość kart wykorzystujących przestrzeń adresową procesora nie pozwala na umieszczanie swoich zasobów adresowych w obrębie segmentu EOOO. Może się to wydawać marnowaniem 64 kB przestrzeni adresowej, jednak komputery, począwszy od 386, mogą korzystać z usług jednostki MMU (Memory Management Unit) procesora, która dokonuje przesunięcia pamięci RAM z obszaru pamięci powyżej pierwszego megabajta (ang. extended memory) w tzw. blok pamięci górnej (ang. Upper Memory Błock - UMB). Pamięć ta może być wykorzystywana następnie do ładowania programów. Dzięki temu wygodnemu rozwiązaniu unikamy utraty części przestrzeni adresowej. W pamięci ROM na płytach głównych komputerów IBM rezyduje szereg innych programów - interfejsów, jednak ich lokalizacja w przestrzeni adresowej jest zazwyczaj spójna. Informację o pamięci ROM BIOS komputerów PC/XT znaleźć można na płycie CD, zawartej w szóstym wydaniu tej książki. Rysunek 7.24 przedstawia mapę pamięci ROM BIOS płyty głównej w większości komputerów klasy AT. Komputery te są pozbawione
interpretera języka BASIC, który można spotkać w komputerach IBM (tzw. IBM Cassette BASIC). Zamiast interpretera BASIC-a, w pamięci ROM tych komputerów znajduje się program konfiguracyjny. Rozbudowa i naprawa komputerów PC Zauważmy, że BIOS standardowego komputera AT zajmuje tylko 64 kB obszaru od adresu FOOO. W większości przypadków pozostała część obszar zarezerwowanego na potrzeby BIOS-u (segment EOOO) jest niewykorzystana i może być użyta jako przestrzeń UMB. Komunikaty o błędach BIOS-u Mapa pamięci ROM większości komputerów kompatybilnych z IBM jest taka sama. jak w oryginalnym komputerze IBM. Wyjątkiem jest obszar zawierający interpreter języka BASIC (Cassette BASIC, ROM BASIC). Dla niektórych użytkowników komputerów osobistych może być niespodzianką, że oryginalny komputer IBM PC miał z tyłu obudowy gniazdko do podłączenia magnetofonu kasetowego, który był wykorzystywany do ładowania programów i danych z kaset. Stacje dyskietek były wówczas dość drogie, a dysków twardych w ogóle nie brano pod uwagę, dlatego stosowano kasety z taśmą magnetyczną. Ceny stacji dyskietek jednak szybko spadły, a gniazdo magnetofonu kasetowego nie pojawiło się już w żadnym z późniejszych komputerów PC. Oryginalny komputer PC w podstawowej konfiguracji był standardowo wyposażony tylko w 16 kB pamięci RAM. Komputery te nie miały stacji dyskietek, nie można więc było ładować plików z dysku ani zapisywać ich na dysk. Większość użytkowników komputerów pisała własne programy w języku BASIC (Beginner's AllPurpose Symbolic Instruction Code) lub uruchamiała programy napisane przez kogoś innego. W pierwszych komputerach IBM interpreter języka BASIC rezydował w pamięci ROM BIOS i obsługiwał port magnetofonu kasetowego, znajdujący się z tyłu obudowy. Najdziwniejszą jednak rzeczą było to, że firma IBM wyposażała swoje komputery w BASIC przez cały czas. aż do komputerów PS/2. Komputer przenośny 486 PS/2 (IBM P75 Portable), którego do niedawna używałem, był standardowo wyposażony w adapter SCSI, a obecnie jest wyposażony w dysk SCSI 4 GB. Komputer ten wciąż ma wbudowany interpreter języka BASIC, który zajmuje 32 kB przestrzeni adresowej. Porównałbym go do wyrostka robaczkowego u człowieka. Pamięć ROM z interpreterem BASIC-a jest właśnie czymś w rodzaju pozostałości takiego organu, używanym przez prehistorycznych przodków, który jednak nie ma żadnego teraźniejszego znaczenia. Gdy wyłączymy wszystkie napędy dyskowe w komputerze, możemy zobaczyć migawkę związaną z obecnością interpretera BASIC w komputerze IBM. Kiedy uruchomimy komputer, to z powodu braku dysku, z którego mógłby wystartować system operacyjny, większość komputerów IBM bezceremonialnie wyrzuci na ekranie komunikat pochodzący właśnie od interpretera BASIC: Większość użytkowników ogarnia strach na widok takiego ekranu, ponieważ oznacza on zazwyczaj niewykrycie dysku twardego. Żaden z komputerów kompatybilnych z IBM nie był nigdy wyposażony w interpreter języka BASIC w pamięci ROM, dlatego w komputerach tych na ekranie pojawia się inny komunikat, który jednak oznacza taką samą sytuację jak ta, kiedy komputer IBM uruchamiałby swój interpreter BASIC-a.
Komputery wyposażone w AMI BIOS sygnalizują ten fakt następującym, kłopotliwym dla użytkownika komunikatem: NO ROM BASIC - SYSTEM HALTED Komunikat ten jest komunikatem wyświetlanym przez AMI BIOS w tych samych sytuacjach, w jakich komputer IBM wywołałby interpreter BASIC-a, którego nie ma oczywiści w pamięci ROM BIOS firmy AMI (to samo dotyczy kompatybilnych BIOS-ów innych producentów). Komunikaty te różnią się w zależności od producenta BlOS-u. Np. BIOS firmy Compaą powoduje wyświetlenie w opisanym wyżej przypadku następującego komunikatu: Non-System disk or disk error replace and strike any key when ready Taki komunikat może być nieco mylący, ponieważ ten sam (albo podobny) komunikat o błędzie jest zapisany w sektorze startowym (ang. Boot Sector) systemu DOS i normalnie zostałby wyświetlony wówczas, gdy brakuje jakiegoś pliku systemowego lub też jest on uszkodzony. W takiej samej sytuacji, tzn. kiedy w komputerze IBM ujrzelibyśmy komunikat pochodzący od interpretera języka BASIC, komputer wyposażony w BIOS firmy Award wyświetliłby następujący komunikat: DISK BOOT FAILURE, INSEKT SYSTEM DISK AND PRESS ENTER W komputerze z BlOS-em firmy Phoenix komunikat ten wyglądałby następująco: No boot device available Strike Fl to retry boot, F2 for setup utility W zależności od tego, jaki w rzeczywistości wystąpiłby błąd, na ekranie zostanie wyświetlony odpowiednio pierwszy lub drugi komunikat. Komunikaty o błędzie różnią się w zależności od pochodzenia BIOS-u, jednak ich przyczyna jest taka sama. Wyświetlenie takiego komunikatu może nastąpić w wyniku zajścia jednego z dwóch zdarzeń. Zdarzenia te są związane z wartością pewnych bajtów w nadrzędnym sektorze ładującym dysku (ang. Master Boot Record, MBR), który jest pierwszym sektorem dysku twardego. Fizyczna lokalizacja tego sektora odpowiada następującym ustawieniom dysku: cylinder O, głowica O, sektor 1. Pierwszy z problemów dotyczy dysku, który albo nie został podzielony na partycje. albo też ma uszkodzony sektor MBR. W czasie procesu startowego BIOS sprawdza ostatnie dwa bajty sektora MBR (pierwszego sektora dysku) w poszukiwaniu ,.sygnatur}" -wartości 55AAh. Jeżeli ostatnie dwa bajty sektora MBR nie maja wartości 55AAh. wywoływane jest przerwanie 18h. W programie obsługi tego przerwania następuje skok do podprogramu. który powoduje wyświetlenie omawianego komunikatu (a także innych komunikatów), a w przypadku komputera IBM wywołuje interpreter BASIC-a. Informacja w sektorze MBR (wraz z dwoma bajtami sygnatury) jest zapisywana przez program FDISK, dostarczany z systemem DOS. Po tzw. niskopoziomowym sformatowaniu twardego dysku wszystkie sektory są zainicjowane pewnym ciągiem bajtów, a pierwszy
sektor nie zawiera wartości 55AAK. Innymi słowy, komunikaty o błędach wyświetlane przez BIOS pojawiają się wówczas, gdy próbujemy wystartować komputer z dysku, który został już sformatowany w sposób niskopoziomowy, nie został jednak podzielony na partycje. Rozważmy teraz drugą sytuację, która spowodowałaby wyświetlenie omawianego przez nas komunikatu. Załóżmy, że sygnatura w sektorze MBR ma poprawną wartość, BIOS wykonuje wówczas kod zawarty w sektorze MBR. Polega to na sprawdzeniu wartości bajtów zapisanych w każdej z czterech tablic partycji dysku (ang. Boot Indicator Bytes). Bajt>' te znajdują się odpowiednio pod adresami 446 (IBeh). 462 (ICeh), 478 (IDeh) i 494 (lEeh). Są one używane w celu określenia jednej z czterech partycji dysku jako tzw. partycji aktywnej (tzn. takiej, z której nastąpi start systemu operacyjnego). Wartość 80h. zapisana w jednym z tych bajtów, oznacza, że odpowiadająca temu bajtowi partycja jest partycją aktywną, natomiast wartości pozostałych bajtów muszą być równe OOh. Jeżeli więcej niż jeden bajt ma wartość 80h (co wskazuje na większą niż l liczbę aktywnych partycji) lub też jeżeli któryś z tych czterech bajtów ma wartość inną niż 80h czy OOh, ujrzymy następujący komunikat: Invalid partition table Jeżeli wszystkie cztery bajty mają wartość OOh, co oznacza brak aktywnej partycji, to na komputerze IBM uruchomi się interpreter języka BASIC, a na innych komputerach ujrzymy jeden z omawianych uprzednio komunikatów, w zależności od BIOS-u naszego komputera. Sytuacja taka zaistniałaby wtedy, gdybyśmy za pomocą programu FDISK usunęli z dysku istniejące partycje, lecz nie utworzyli nowych partycji bądź nie ustawili aktywnej partycji w programie FDISK przed ponownym uruchomieniem komputera. Pamięć powyżej pierwszego megabajta (ang. extended mory) Jak już była mowa wcześniej w tym rozdziale, przestrzeń adresowa komputera z procesorem 286 lub lepszym może rozciągać się poza granicę jednego megabajta, która jest ograniczeniem w trybie rzeczywistym procesora. W komputerach 286 lub 386SX pamięć może mieć maksymalnie 16 MB; w komputerach 386DX, 486, Pentium, Pentium MMX czy Pentium Pro pamięć osiąga granicę 64 GB (65536 MB). W komputerze klasy AT. aby możliwe było zaadresowanie pamięci powyżej pierwszego megabajta, procesor musi pracować w trybie chronionym (ang. protected modę). Tryb ten jest podstawowym trybem (ang. native modę) pracy nowszych procesorów Intel. W przypadku procesora 286, z pamięci powyżej pierwszego megabajta mogą korzystać jedynie programy pracujące w trybie chronionym. Procesory 386 i lepsze oferują inny tryb, zwany wirtualnym trybem rzeczywistym (ang. virtual protected modę}. Tryb ten umożliwia podział pamięci powyżej pierwszego megabajta na kawałki o rozmiarze l MB. Z każdym takim obszarem związana jest osobna sesja trybu rzeczywistego. Wirtualny tryb rzeczywisty pozwala również na jednoczesną pracę kilku takich sesji w osobnych, chronionych obszarach pamięci. Możliwa jest jednoczesna praca kilku programów systemu DOS, jednak dla każdego z nich dostępny jest maksymalnie obszar 640 kB pamięci RAM, ponieważ w każdej sesji jest symulowane środowisko trybu rzeczywistego, wraz z obszarem BIOS-u i obszarem pamięci UMA. Jednoczesne uruchamianie kilku programów w wirtualnym trybie rzeczywistym, zwane wieloiadanio\vością (ang. multitasking). wymaga oprogramowania, które mogłoby zarządzać każdym z uruchomionych programów i zabezpieczać programy przed interferowaniem ze sobą. Wszystkie te
cechy zapewniają systemy operacyjne OS/2, Windows 95 i Windows NT. Układy 286 i wyższe mogą również pracować w trybie rzeczywistym (ang. real modę), który zapewnia pełną kompatybilność z procesorami 8088 znajdującymi się w komputerach PC XT. Tryb rzeczywisty umożliwia uruchamianie programów na komputerze AT tak, jakby były one uruchamiane na komputerze XT. przy czym w danym momencie może być uruchomiony tylko jeden program. Jednak komputer AT. również z procesorem 386, 486. Pentium. Pentium Pro czy Pentium II. pracując w trybie rzeczywistym jest tylko nieco szybszym komputerem turbo PC. Procesory w trybie rzeczywistym emulują układy 8086 i 8088, jednak nie mogą w tym samym czasie pracować w trybie chronionym. Z tego powodu procesory Intel, począwszy od 386, zostały wyposażone w wirtualny tryb rzeczywisty, w którym są zapewnione mechanizmy ochrony pamięci. Dzięki temu możliwe jest wykonywanie programów trybu rzeczywistego po kontrolą trybu chronionego systemu operacyjnego OS/2 czy Windows 95 Pamięć rozszerzona (ang. extended memory) jest obszarem pamięci powyżej pierwszego megabajta, dostęp do tej pamięci jest możliwy tylko wtedy, gdy procesor pracuje w trybie chronionym. Pamięć XMS Specyfikacja pamięci XMS została opracowana w 1987 roku przez firmy Microsoft, Intel i AST Corp. oraz Lotus Development jako specyfikacja wykorzystania przez programy obszaru pamięci powyżej pierwszego megabajta. Pamięć XMS może funkcjonować na komputerze z procesorem 286 lub lepszym i pozwala na wykorzystywanie pamięci spoza zasięgu systemu DOS, powyżej pierwszego megabajta wraz z dodatkowym blokiem pamięci, przez programy trybu rzeczywistego (przeznaczone do uruchamiania w systemie operacyjnym DOS). Przed pojawieniem się specyfikacji XMS nie istniała żadna możliwość współbieżnego wykonywania programów, które dokonywały przełączania procesora w tryb pracy chronionej i korzystały z pamięci powyżej pierwszego megabajta. Nie było możliwe sprawdzenie przez działający program, jak pamięć ta jest wykorzystywana przez inny. działający równolegle program, ponieważ w trybie rzeczywistym programy nie mogły zaadresować dodatkowej pamięci. Przykładem programu-arbitra, który sam zajmuje całą pamięć powyżej pierwszego megabajta po to. aby ją następnie wydzielać innym programom, przestrzegając przy tym reguł protokołu XMS, jest program HIMEM.SYS. W ten sposób kilka programów wykorzystujących pamięć XMS może jednocześnie pracować w systemie operacyjnym DOS. Programy te uzyskują dostęp do pamięci powyżej pierwszego megabajta, przełączając w razie potrzeby na pewien czas procesor w tryb pracy chronionej. Reguły protokołu XMS zapobiegają powstaniu sytuacji, w której jeden program uzyskuje dostęp do pamięci innego programu. System operacyjny Windows 3.x prowadzi zarządzanie pamięcią przełączając okresowo procesor w tryb chroniony, obsługuje w ten sposób kilka programów jednocześnie i dlatego wymaga obecności pamięci XMS. System Windows 95 pracuje najczęściej w trybie chronionym, jednak
nadal wiele jego wywołań systemowych, w których uzyskuje dostęp do różnych komponentów komputera, odbywa się w trybie rzeczywistym. Systemy operacyjne Windows NT i OS/2 są systemami pracującymi wyłącznie w trybie chronionym. Pamięć powyżej jednego megabajta może być dostosowana do specyfikacji XMS poprzez zainstalowanie odpowiedniego sterownika (ang. device driver) w pliku CONFIG.SYS. Najczęściej stosowanym sterownikiem jest program HIMEM.SYS. dostarczany wraz z systemami operacyjnymi Windows 3.x i DOS począwszy od wersji 4.0. Są dostępne również inne programy, np. QMM. które dodane do pliku CONFIG.SYS uaktywniają obszar pamięci powyżej pierwszego megabajta jako pamięć XMS. Obszar pamięci „wysokiej" (ang. High Memory Area - HMA) i linia adresowa A20 procesora 286 Obszar pamięci „wysokiej" (HMA) ma rozmiar 64 kB pomniejszony o 16 bajtów i zaczyna się na początku drugiego megabajta pamięci. Obszar ten można wykorzystać do ładowania sterowników programowych i programów rezydentnych, dzięki czemu zwolnione obszary pamięci podstawowej mogą być wykorzystywane przez programy pracujące w trybie rzeczywistym. Do pamięci HMA można w danej chwili załadować tylko jeden sterownik lub program rezydentny, niezależnie od jego wielkości. Pierwotnie mógł to być dowolny program, jednak firma Microsoft zdecydowała, że jako pierwszy będzie tam ładowany system operacyjny i wbudowała w tym celu odpowiednie mechanizmy w system DOS począwszy od wersji 5.0. Obszar pamięci HMA ma duże znaczenie w przypadku korzystania z DOS-a 5.0 lub nowszego, ponieważ od wersji 5.0 system DOS może przenieść w ten obszar swoje jądro (ang. kernel), liczące około 45 kB kodu. Aby tego dokonać, należy najpierw załadować do pamięci sterownik obsługujący pamięć XMS (np. HIMEM.SYS), a następnie dodać do pliku CONFIG.SYS linię DOS=HIGH. Dzięki temu zwolnione zostanie dodatkowe 45 kB pamięci podstawowej dla programów pracujących w trybie rzeczywistym. Zasadniczo pamięć powyżej pierwszego megabajta dostępna jest jedynie w trybie chronionym procesora, jednak okazało się, że „błąd" w konstrukcji procesora 286 (który szczęśliwie został przeniesiony do nowszych procesorów firmy Intel, nazwano go przy tym „zaletą") spowodował przez przypadek, że w trybie rzeczywistym możliwy jest dostęp do prawie całego pierwszego segmentu pamięci powyżej pierwszego megabajta. Dostęp do pamięci HMA jest nadzorowany przez sterownik HIMEM.SYS albo inny sterownik o podobnych funkcjach. Interesujące jest pochodzenie błędu odpowiedzialnego za całą sprawę, ponieważ dotrwał on aż do procesora Pentium II. U źródeł problemu tkwi fakt, że adresy w pamięci adresowanej przez procesor Intel są określane za pomocą adresu segmentu i przesunięcia względem początku segmentu. Jeżeli adres segmentu zostanie ustawiony na FFFF (co wskazuje komórkę o adresie FFFFO, znajdującą się 16 bajtów poniżej końca pierwszego megabajta), a jednocześnie adres przesunięcia będzie równy FFFF, czyli 64 kB, to uzyskamy następujący adres liniowy:
Adres ten nie ma racji bytu w komputerach z procesorem 8086 czy 8088, ponieważ procesory te mają tylko 20 linii adresowych i nie mogą wygenerować tak dużego adresu. Procesory te odrzucają pierwszą cyfrę wyniku i otrzymują adres OFEF, który w gruncie rzeczy wskazuje na komórkę zlokalizowaną 16 bajtów przed końcem pierwszego segmentu pierwszego megabajta. Problem z procesorem 286 i nowszymi polega na tym. że w trybie rzeczywistym procesory te zachowują się w opisany wyżej sposób - efektywny adres również powinien wskazywać na komórkę w pierwszym segmencie pierwszego megabajta. Jednak na skutek błędu 21. linia adresowa procesora (A20) pozostaje wtedy aktywna, dzięki czemu efektywny adres wskazuje na komórkę pamięci zlokalizowaną 16 bajtów przed końcem pierwszego segmentu drugiego megabajta pamięci. Pamięć ta w założeniach miała być dostępna wyłącznie w trybie chronionym, jednak opisany błąd spowodował, że cały pierwszy segment (bez 16 bajtów) drugiego megabajta stal się dostępny w trybie rzeczywistym. Błąd ten spowodował problemy w działaniu wielu programów trybu rzeczywistego, których prawidłowe działanie było zależne od „zawinięcia" pamięci. Dlatego inżynierowie firmy IBM przy opracowywaniu komputera AT musieli zapewnić mechanizm wyłączania linii A20 w czasie pracy w trybie rzeczywistym i włączania jej ponownie przy przełączaniu w tryb chroniony. Dokonano tego dzięki wykorzystaniu jednej z niewykorzystanych końcówek kontrolera klawiatury, układu 8042, znajdującego się na płycie głównej. Funkcją układu 8042 było odczytywanie kodów naciskanych klawiszy i przesyłanie ich do procesora, jednak niektóre końcówki układu nie brały udziału w tej operacji. Dlatego firma IBM wpadła na pomysł, aby układ ten wykorzystać do uaktywniania w razie potrzeby linii A20, zapewniając w ten sposób pełną emulację procesorów 8088 i 8086 przez „wadliwy" procesor 286 pracujący w trybie rzeczywistym. Firma Microsoft odkryła, że za pomocą kontrolera 8042 można uaktywnić linię A20 i wykorzystać „wadę" procesora, dzięki czemu możliwy stał się dostęp do pierwszych 64 kB pamięci powyżej pierwszego megabajta, bez konieczności angażowania w to stosunkowo długiego i skomplikowanego procesu przełączania procesora w tryb chroniony. W ten sposób „narodził się" program HIMEM.SYS i obszar pamięci HMA. Zadaniem sterownika HIMEM.SYS jest sprawdzanie, czy linia A20 powinna być w danym momencie wyłączona, przez co zostałaby utrzymana kompatybilność z procesorami 8086/8088, czy też powinna zostać uaktywniona w razie żądania dostępu do pamięci HMA lub przy przełączaniu procesora w tryb chroniony. Podsumowując, program HIMEM.SYS za pośrednictwem układu 8042 sprawuje kontrolę nad linią A20. Pamięć EMS (expanded memory - EMS) Niektóre starsze programy mogą wykorzystywać pamięć EMS (Expanded Memory Spe-cification). W przeciwieństwie do pamięci podstawowej (pierwszy megabajt) czy też pamięci XMS (obszar od 2 do 16 lub 4096 megabajtów), pamięć EMS nie jest adresowana bezpośrednio przez procesor. Zamiast tego dostęp do niej jest możliwy za pośrednictwem okna o rozmiarze 64 kB oraz 16 kB stron umieszczonych w obszarze UMA. Specyfikacja EMS została zrealizowana jako zbiór przełączanych banków pamięci. Na karcie rozszerzającej znajduje się dość duża ilość 64kilobajtowych segmentów pamięci wraz z układami dokonującymi niezbędnego przełączania i mapowania banków pamięci. Wolny segment w pamięci UMA wykorzystywany jest przy tym jako obszar, przez który procesor
uzyskuje dostęp do pamięci EMS. Kiedy całe 64 kB zostaną zapełnione danymi, karta rozszerzająca dokonuje przełączenia segmentów, w wyniku czego na miejscu pełnego segmentu pojawia się nowy, pusty segment. Karta pamięci EMS dokonuje odpowiedniego przełączania segmentów, tak aby po zapełnieniu się jednego segmentu na jego miejscu pojawiał się segment pusty. Tylko jeden segment może być w danej chwili obsługiwany przez procesor, dlatego pamięć EMS jest rozwiązaniem bardzo niewydajnym w przypadku kodu programów i stosuje się ją tylko dla danych. Rysunek 7.25 obrazuje sposób, w jaki pamięć EMS jest wpisana w przestrzeń zajmowaną przez pamięć konwencjonalną i pamięć EMS.
Firma Intel opracowała swego czasu kartę pamięci ogólnych zastosowań, wyposażoną w odpowiednie układy dokonujące przełączania banków pamięci. Karty te, określane jako Abo\
oraz w jaki sposób można zmienić adresy, aby umożliwić jednoczesną pracę obydwu kart. Przez większość czasu poświęconego na rozwiązywanie problemów powinniśmy próbować zmian parametrów konfiguracyjnych karty lub zworek, zmianę ustawień czy parametrów sterowników programowych. Umożliwi to współistnienie dwóch kart w komputerze i niekolidowanie ich ze sobą. Ponadto trzeba zapewnić, aby karty nie korzystały z tego samego przerwania IRQ, kanału DMA czy adresów w przestrzeni wejścia/wyjścia. Konfliktów w dostępie do zasobów takich jak przerwania, kanały DMA czy porty we/wy można uniknąć sporządzając tabelę konfiguracji komputera, do której wpisujemy te zasoby, które są wykorzystywane przez komputer. W rezultacie otrzymujemy obraz wykorzystania wszystkich zasobów w komputerze oraz wzajemne powiązania pomiędzy kartami rozszerzającymi. Taki sposób postępowania pomaga przewidywać potencjalne konflikty i zapewnia, że każda nowa karta w komputerze zostanie od razu poprawnie skonfigurowana. Tabela ta stanowi również ważną dokumentację, kiedy rozważamy zakup nowych kart rozszerzających. Nowe karty należy tak konfigurować, aby wykorzystywały dostępne zasoby komputera. Jeżeli komputer odpowiada specyfikacji Plug-and-Play, a używane przez nas karty są kartami PnP, to karta sama będzie mogła dokonać koniecznych przesunięć obszarów pamięci, aby rozwiązać zaistniałe konflikty. Niestety, procedury te nie są zbyt „inteligentne" i wciąż wymagają interwencji użytkownika -jawnego podania takiej lokalizacji w przestrzeni adresowej, która będzie najbardziej optymalną dla pamięci karty. Przepisanie zawartości pamięci ROM do RAM (shadow ROM) W komputerach zbudowanych w oparciu o procesor 386 lub lepszy, który komunikuje się z pamięcią za pośrednictwem 32- lub 64-bitowej magistrali, do komunikacji z pamięcią ROM BIOS wykorzystywana jest często magistrala 16-bitowa. Ponadto karty wyposażone we własny BIOS mogą komunikować się z pamięcią komputera poprzez magistralę 8bitową. W zaawansowanych, nowoczesnych komputerach, 8czy 16-bitowa magistrala jest „wąskim gardłem", które obniża wydajność całego systemu. Oprócz ograniczeń w szerokości magistrali, w przypadku większości układów pamięci ROM czas dostępu jest o wiele dłuższy niż dla pamięci DRAM (dynamie RAM). Najszybsze dostępne na rynku układy ROM osiągają czasy dostępu w zakresie 150-200 ns, podczas gdy pamięci RAM we współczesnych komputerach mają czas dostępu równy 7 ns i mniej. Ponieważ pamięć ROM jest dość wolna, każdy dostęp do danych lub programu zapisanego w pamięci ROM powoduje wstawienie cykli oczekiwania. Cykle oczekiwania mogą dramatycznie spowolnić pracę całego komputera, zwłaszcza że wiele sterowników urządzeń, do których odwołuje się system DOS, zawartych jest w pamięci ROM BIOS znajdującej się na płycie głównej i na kartach rozszerzających. Na szczęście opracowano sposób na przeniesienie zawartości wolnych 8- lub 16-bitowych układów ROM do znacznie szybszej, 32-bitowej pamięci RAM. W języku angielskim jest to określane jako ROM shadowing.
Właściwie wszystkie komputery z procesorem 386 i lepszym pozwalają na przepisanie do pamięci RAM pamięci ROM płyty głównej, a czasami także pamięci ROM kart rozszerzających. Polega to na przeniesieniu kodu z wolnych układów ROM do szybkiej, 32-bitowej pamięci RAM. Przepisanie zawartości ROM do RAM może znacznie podnieść szybkość wykonywania procedur BIOS-u - czasami aż do czterech lub pięciu razy. Przepisywanie zawartości ROM do RAM odbywa się przy pomocy wydajnej jednostki MMU, która jest częścią procesorów Intel, począwszy od 386. Za pomocą odpowiedniej instrukcji można nakazać, by jednostka MMU odczytała zawartość pamięci ROM, umieściła ją w RAM i sprawiła, aby zawartość pamięci RAM była widoczna pod takimi samymi adresami, jak poprzednio pamięć ROM. Następnie wyłączamy pamięć ROM. a pamięć RAM, która teraz jest widziana jako ROM. jest całkowicie zabezpieczona przed zapisem. Pamięć ta przypomina więc teraz pod każdym względem poprzednią pamięć ROM, oprócz tego, że jest od niej znacznie szybsza! W większości komputerów program konfiguracyjny (SETUP) posiada opcją uaktywniającą przepisywanie pamięci ROM BIOS płyty głównej (zazwyczaj segment FOOO) oraz pamięci ROM BIOS karty graficznej (zajmującej zazwyczaj pierwsze 32 kB segmentu COOO). Niektóre komputery umożliwiają nawet kopiowanie do pamięci RAM pozostałych fragmentów pamięci ROM z segmentu COOO i DOOO. Rozdział 7
Powinniśmy pamiętać o jednej ważnej rzeczy, mianowicie jeżeli włączymy przepisywanie pamięci ROM o zadanych adresach do pamięci RAM, to przy uruchamianiu komputera każda informacja znaleziona pod tym obszarem zostanie przepisana do pamięci RAM i zapis danych w tym obszarze stanie się niemożliwy. Gdybyśmy postąpili tak w przypadku karty sieciowej wyposażonej we własną pamięć współdzieloną, widoczną w obszarze UMA, to karta odmówiłaby jakiejkolwiek pracy. Dlatego do RAM można kopiować tylko te obszary adresowe, pod którymi pierwotnie widoczna jest pamięć ROM, a nie RAM. W niektórych komputerach niemożliwe jest przepisywanie do RAM obszarów innych niż BIOS płyty głównej czy karty graficznej. W komputerach tych, aby przepisać do RAM zawartość innych obszarów, trzeba skorzystać z usług jakiegoś programu zarządzającego pamięcią, np. EMM386 (który jest dostarczany z systemami DOS i Windows). Powinno się jednak przede wszystkim korzystać z możliwości, jakie w zakresie przepisywania ROM do RAM daje sprzęt, ponieważ sprzętowe przepisywanie zagospodarowuje te obszary pamięci UMA, które pozostałyby niewykorzystane. Natomiast program zarządzający pamięcią, taki jak EMM386, angażuje do tego nieduże obszary pamięci XMS (powyżej pierwszego megabajta), równe rozmiarowi pamięci ROM, której zawartość przepisujemy. Jeżeli przepisanie pewnego obszaru ROM do pamięci RAM spowoduje, że przestanie prawidłowo działać jedna lub więcej kart rozszerzających w komputerze, to powodem tego może być
przepisanie do RAM komputera obszarów pamięci podręcznej (ang. scratch pad memory) kart rozszerzających. Do pamięci tej nie będzie można zapisywać żadnych danych, dopóki opcja „ROM shadowing" nie zostanie wyłączona. Aby komputer mógł znowu poprawnie funkcjonować, należałoby tę opcję wyłączyć. Jeżeli jest możliwe precyzyjne ustalenie, które adresy w obszarze UMA odnoszą się do pamięci ROM, a które do RAM, to możemy nakazać przepisanie tylko obszarów ROM i osiągnięcie tym sposobem maksymalnej wydajności komputera. Na uwagę zasługuje fakt, iż kopiowanie ROM-u do dużo szybszego RAM-u nie ma większego znaczenia dla systemów 32-bitowych, jak Windows 9X/NT. Systemy te używają 16bitowego kodu BIOS jedynie podczas startu systemu. Potem uruchamiają własne, 32-bitowe sterowniki i ich używają. ROM Shadowing ma sens jedynie w przypadku starszych systemów operacyjnych, jak 16-bitowy DOS. Całkowity rozmiar pamięci komputera a pamięć dostępna dla programów Większość użytkowników nie zdaje sobie sprawy, że nie cała pamięć modułów SIMM czy inna pamięć fizyczna, którą kupimy i zainstalujemy w komputerze, będzie dostępna dla programów. Kilka osobliwych cech w architekturze komputera spowodowało, że całkowity rozmiar dostępnej pamięci został pomniejszony o 384 kB zagospodarowane jako obszar UMA.Np. w większości komputerów z 4 MB (4096 kB) pamięci RAM, w czasie testu POST albo po uruchomieniu programu SETUP ujawni się dostępne 3712 kB pamięci RAM. Widać więc, że brakuje 4096 - 3712 = 384 kB pamięci RAM! Część komputerów z 4 MB RAM może ujawnić obecność 3968 kB pamięci, co oznacza brak 4096 - 3968 = 128 kB RAM. Dokładniejsze informacje, niż podawane w czasie testu POST, można uzyskać uruchamiając program SETUP i sprawdzając ilość pamięci podstawowej i pamięci XMS. W większości komputerów mamy o dyspozycji 640 kB pamięci podstawowej i 3073 kB pamięci XMS. W niektórych przypadkach program SETUP poinformuje o „premii" w postaci 640 kB pamięci podstawowej i 3228 kB pamięci XMS. Inaczej mówiąc, w większości komputerów „brakuje" 384 kB pamięci RAM, podczas gdy w pozostałych tylko 128 kB. Przyczyna tego niedoboru nie jest prosta do wyjaśnienia, jednak dla wszystkich komputerów jest taka sama. Załóżmy, że w komputerze 486 zainstalowane są dwa 72-końcówkowe (36-bitowe) moduły SIMM. W rezultacie w komputerze będą 2 MB pamięci w dwóch osobnych bankach procesor 486 ma 32-bitową magistralę danych, a na każde 8 bitów danych przypada jeden bit parzystości. W tym przypadku pojedynczy moduł SIMM tworzy jeden bank pamięci. Zauważmy, że w większości tanich komputerów 486 wykorzystuje się 30-końcówkowe (9-bitowe) moduły SIMM i wówczas pojedynczy bank pamięci składa się z czterech takich modułów. Obszar pierwszego banku rozpoczyna się od adresu 000000 (początek pierwszego megabajta), a drugi bank od adresu 100000 (początek drugiego megabajta). Kardynalna reguła, dotycząca zasobów adresowych komputera, mówi, że żadne dwa urządzenia w komputerze nie powinny nigdy mieć przypisanych tych samych obszarów adresowych. Oznaczałoby to jednak, że 384 kB pamięci z pierwszego banku pozostawałoby w bezpośrednim konflikcie z pamięcią obrazu (segmenty AOOO i BOOOO), pamięcią ROM kart rozszerzających (segmenty COOO i DOOO) i oczywiście pamięcią ROM płyty głównej (segmenty EOOO i FOOO). Wszystkie moduły SIMM, które zajmują ten obszar, musiałyby być wyłączone, w
przeciwnym razie komputer by nie działał. W praktyce projektant płyty głównej może uczynić trzy rzeczy z pamięcią modułów SIMM, zajmującą obszar AOOOO-FFFFF: 4 Przepisać zawartość pamięci ROM do RAM (ang. shadowing), po czym wyłączyć układy ROM ^ Wyłączyć całą pamięć RAM widoczną w obszarze UMA i wyeliminować w ten sposób jakiekolwiek konflikty w tym obszarze. 4 Przenieść niewykorzystane obszary pamięci RAM dodając je do obszaru pamięci XMS W większości komputerów do pamięci RAM przepisuje się ROM płyty głównej (zazwyczaj 64 kB), ROM karty graficznej (32 kB) a pozostałe obszary pamięci RAM po prostu się wyłącza. Niektóre płyty główne umożliwiają przepisanie do RAM dodatkowo 16-kilobajtovvej porcji ROM z obszaru C8000-DFFFF. Do pamięci RAM komputera można przepisywać tylko zawartość pamięci ROM, natomiast nie można np. pamięci RAM karty sieciowej. Jeżeli karta sieciowa ma bufor wpisany w obszar C8000-DFFFF, to nie należy go przepisywać do RAM komputera, ponieważ karta przestanie wtedy działać. Z tych samych przyczyn nie należy przepisywać obszaru AOOOO-BFFFF, ponieważ znajduje się tam pamięć RAM bufora karty graficznej. Większość płyt głównych nie umożliwia przesunięcia wolnej pamięci UMA na koniec obszaru XMS (ang. remapping) , lecz po prostu pamięć tę wyłącza. Dlatego też włączenie mechanizmu „ROM shadowing" nie powoduje w praktyce zmniejszenia obszaru pamięci dostępnej w komputerze. W większości komputerów pamięć RAM, do której nie przepisano by pamięci ROM, zostałaby po prostu wyłączona. Takie komputery ujawniają o 384 kB mniej pamięci w porównaniu r rozmiarem fizycznej pamięci obecnej w komputerze. Przykładowo, mój komputer wyposażony w 2 MB pamięci RAM miałby 640 kB pamięci podstawowej i 1024 kB pamięci XMS, co daje łącznie 1664 kB dostępnej pamięci RAM, o 384 kB mniej niż jest w komputerze (2048 - 384 = 1664). W bardziej zaawansowanych komputerach przepisuje się do RAM wszystkie możliwe obszary ROM, a następnie niewykorzystane obszary RAM z obszaru UMA umieszcza się na końcu przestrzeni XMS, dzięki czemu nie marnuje się żaden z niewykorzystanych obszarów RAM. Np. komputery PS/2 przepisują do RAM obszar ROM BIOS płyty głównej (obszar EOOOO-FFFFF lub 128 kB), a pozostałą pamięć z pierwszego banku pamięci, obecną w komputerze jako moduły SIMM (256 kB w obszarze AOOOO-DFFFF) pod adres, który jest bezpośrednio za ostatnim bankiem fizycznej pamięci komputera. Zauważmy, że BIOS karty graficznej w komputerach PS/2 wchodzi w skład pamięci ROM BIOS płyty głównej, zlokalizowanej w obszarze EOOOO-FFFFF. W przeciwieństwie do innych komputerów, nie trzeba przepisywać osobno pamięci ROM BIOS karty graficznej.
Przykładowo, w moim komputerze, wyposażonym w dwa 36-bitowe moduły SIMM o rozmiarze l MB każdy, 256 kB pamięci UMA, do której nie przepisuje się pamięci ROM, zostałoby przesunięte w obszar 200000-230000, znajdujący się na początku trzeciego megabajta. Przesunięcie takie ma wpływ na znaczenie wartości podawanych przez programy diagnostyczne, ponieważ np. zgłoszenie błędu pamięci w obszarze 200000-230000, który wskazuje na końcowy obszar pamięci XMS, oznaczałoby w rzeczywistości uszkodzenie pierwszego modułu SIMM. Pamięć o adresach 100000-1FFFFF wchodziłaby w skład drugiego modułu SIMM, a 640 kB pamięci podstawowej o adresach 000000-09FFFF - w "skład pierwszego modułu SIMM. Jak widać, domyślenie się, w jakich obszarach adresowych jest zlokalizowana fizyczna pamięć modułów SIMM, nie jest łatwe. W większości komputerów możliwe jest przesunięcie tylko całego segmentu niewykorzystanej pamięci z obszaru UMA, o ile segment ten nie zawiera zawartości przepisanej z pamięci ROM. Nigdy nie należy przepisywać pamięci obrazu zlokalizowanej w segmentach AOOO i BOOO, tak więc co najmniej 128 kB pamięci RAM może zostać przesunięte na koniec obszaru XMS, o ile komputer to umożliwia. Segmenty pamięci RAM spod adresów FOOO i COOO w większości komputerów zawierają kopię odpowiednio pamięci ROM płyty głównej i pamięci ROM karty graficznej, dlatego też nie mogą być przesunięte na koniec obszaru XMS. Zostaje więc maksymalnie 256 kB, które mogą być przesunięte. Jeżeli w komputerze na koniec obszaru XMS przesunięte są całe 384 kB pamięci RAM z obszaru UMA. to automatycznie wyklucza to przepisywanie zawartości pamięci ROM do RAM w obrębie pamięci UMA. Zrezygnowanie z przepisywania ROM do RAM spowalnia jednak znacznie komputer i nie jest zalecane. Podejmując decyzję, czy dany fragment pamięci RAM z obszaru UMA wykorzystać do przechowywania kopii pamięci ROM (ang. shadowing) czy też przenieść go na koniec obszaru XMS (ang. re-mapping). należy zawsze wybrać rozwiązanie pierwsze. Natomiast niewykorzystaną pamięć RAM z obszaru UMA zawsze lepiej jest przesunąć na koniec obszaru XMS, niż po prostu wyłączyć. W komputerze z brakującymi 384 kB pamięci RAM nie stosuje się przesuwania niewykorzystanej pamięci na koniec obszaru XMS. W celu ustalenia, czy w komputerze brakuje pamięci, wystarczy zwrócić uwagę na trzy czynniki. Pierwszym jest całkowity rozmiar pamięci fizycznie obecnej w komputerze. Pozostałe dwa można ustalić uruchamiając program SETUP komputera. Są to całkowity rozmiar pamięci podstawowej i pamięci XMS komputera. Następnie, odejmując pamięć podstawową i pamięć XMS od całkowitej pamięci komputera, otrzymamy rozmiar brakującej pamięci. Zazwyczaj okaże się, że w komputerze brakuje 384 kB, lecz jeżeli jesteśmy szczęśliwymi właścicielami komputera, w którym 256 kB pamięci RAM jest przepisywane spod obszaru UMA w obszar XMS, to okaże się, że brakuje tylko 128 kB. Praktycznie wszystkie komputery wykorzystują część z brakującej pamięci RAM do przechowywania kopii zawartości swojej pamięci ROM, przede wszystkim ROM płyty głównej i karty graficznej. Tak więc „braki" nie oznaczają wcale marnotrawstwa. W komputerze, w którym brakuje 128 kB, w 64 kB z tego obszaru jest przechowywana kopia ROM BIOS (FOOOO-FFFFF), a w 32 kB - BIOS karty graficznej (COOOO-C8000). Reszta - 32 kB (C8000-CFFFF) - jest po prostu wyłączana. Pozostałe dwa segmenty (128 kB w obszarze AOOOO-BFFFF i 128 kB w obszarze DOOOO-EFFFF) są przenoszone na początek piątego megabajta (400000-43FFFF). W większości komputerów pozostałe fragmenty RAM w obszarze UMA są po prostu wyłączane. Rozwiązanie to wybrano ze względu na prostotę realizacji. Operacja przeniesienia fragmentów RAM w obszar
XMS wymaga dodatkowych układów logicznych i procedur BlOS-a realizujących tę funkcję, a większość producentów płyt głównych uznała, że dodatkowe 256 kB nie jest warte zachodu. Jeżeli w komputerze włączona jest opcja przesuwania pamięci RAM spod obszaru UMA w obszar XMS, to jakiekolwiek komunikaty o błędach pamięci odnoszące się do końcowej części obszaru XMS prawdopodobnie dotyczą pierwszego banku pamięci, ponieważ przesunięty obszar pamięci pochodzi właśnie z tego banku. W komputerze 32-bitowym pierwszy bank może być złożony z czterech 9-końcówkowych (36-bitowych) modułów SIMM albo z jednego modułu 72-końcówkowego (36-bitowego). Konfigurowanie i optymalizacja pamięci kart rozszerzających W idealnym przypadku wszystkie karty w komputerze są kartami PnP i jedyne, czego wymagają od użytkownika, to włożenie ich do gniazd rozszerzających. Pojawienie się kart PnP przybliżyło nas trochę do ideału. Jednak czasami odnosi się wrażenie, że niektóre karty rozszerzające zostały zaprojektowane tak. jakby miały być jedynymi kartami w komputerze. Ich prawidłowe skonfigurowanie wymaga od użytkownika znajomości wykorzystania w komputerze zasobów adresowych z obszaru UMA, a także linii IRQ i kanałów DMA. Ponadto niezbędna jest umiejętność skonfigurowania karty w taki sposób, aby nie powodowała ona konfliktu z już zainstalowanymi urządzeniami. Karty rozszerzające potrzebują adresów w przestrzeni UMA na potrzeby swoich pamięci ROM BIOS oraz jako robocze obszary RAM. Jeżeli dwie karty jednocześnie próbują korzystać z tego samego obszaru pamięci ROM BIOS czy pamięci RAM, powstaje konflikt, który może spowodować, że komputer w ogóle nie wystartuje. W tym podrozdziale omówimy sposoby unikania potencjalnych konfliktów oraz metody radzenia sobie w sytuacjach, kiedy konflikt wystąpi. Omówimy ponadto rozwiązywanie konfliktów poprzez przeniesienie pamięci kart w inne obszary oraz podamy pewne sposoby optymalizacji wykorzystania pamięci kart rozszerzających. W komputerach z magistralą EISA czy MCA dodanie nowej karty rozszerzającej jest nieco prostsze, ponieważ architektura tych magistral umożliwia automatyczną konfigurację kart rozszerzających. Komputery z magistralami EISA czy MCA same ustalają dostępne obszary w przestrzeni UMA, linie IRQ i kanały DMA, a wszystkie karty zostają automatycznie skonfigurowane do optymalnej pracy. Jak rozpoznać karty zajmujące adresy w przestrzeni UMA Ustalić, które karty zajmują pamięć w obszarze UMA, można na jeden z dwóch sposobów: •
Sprawdzić w dokumentacjach kart obecnych w komputerze adresy pamięci wykorzystywane przez karty. •
^ Skorzystać z programu użytkowego, który sam szybko ustali, jakie obszary pamięci UMA są zajmowane przez poszczególne karty.
Sposobem najprostszym (chociaż nie zawsze niezawodnym) jest skorzystanie z programu użytkowego. Jednym z takich programów jest Microsoft Diagnostics (MSD), który jest dostarczany z systemami operacyjnymi DOS 6.0 i Windows 3.x (lub nowszymi). Informację taką podaje również Menadżer urządzeń z Panelu sterowania w Windows 95. Programy te sprawdzają konfigurację sprzętową ustalając nie tylko ilość pamięci UMA. lecz również linie IRQ zajmowane przez karty.
Po uruchomieniu programu MSD, Menadżera urządzeń lub innego podobnego programu, należy sporządzić wydruk przedstawiający adresy zajęte w komputerze. Wydruk ten będzie pomocny przy dodawaniu do komputera nowych urządzeń, ponieważ pozwoli nam się upewnić, że nowa karta nie spowoduje konfliktu z innymi urządzeniami obecnymi w komputerze. Przesuwanie obszaru pamięci kart w celu rozwiązywania konfliktów Po rozpoznaniu - przy pomocy dokumentacji karty czy programu użytkowego - konfliktu lub potencjalnego konfliktu w komputerze i ustaleniu adresów zajmowanych przez kartę w obszarze UMA, możemy przystąpić do zmiany konfiguracji karty lub kart, przenosząc fragmenty pamięci zajmowane przez te karty w inne miejsce w obszarze UMA. W większości kart taka zmiana konfiguracji okaże się dość prosta, gdyż będzie wymagać jedynie zmiany ustawień kilku zworek czy przełączników. Przestrzeganie poniższych wskazówek pozwoli na rozwiązanie większości konfliktów, które wystąpiły pomiędzy kartami. 1. Ustalenie i spisanie na kartce adresów w obszarze UMA zajmowanych przez karty rozszerzające. 2. Sprawdzenie, czy adresy te nie pokrywają się, co byłoby przyczyną konfliktu. 3. Ustalenie na podstawie dokumentacji, które karty pozwalają na zmianę konfigu racji, tak aby każda z kart miała dostęp do innego obszaru przestrzeni adresowej. 4. Zmiana konfiguracji odpowiednich kart, tak aby nie było konfliktu w dostępie do ich obszarów adresowych. Przykładowo, jeżeli jedna karta korzysta z obszaru C8000-CBFFF, a druga z obszaru CAOOO-CCFFF, to mamy potencjalny konflikt. Musimy wówczas zmienić obszar adresowy jednej z kart. Optymalizacja wykorzystania pamięci kart rozszerzających W przypadku idealnego komputera PC, karty rozszerzające byłyby skonfigurowane w en sposób, że ich adresy z obszaru UMA byłyby umieszczane zaraz po adresach kart instalowanych poprzednio. Obszary dwóch kart nie zachodziłyby na siebie, co eliminowałoby konflikt. Taka konfiguracja byłaby nie tylko bezkonfliktowa, lecz także uprościłaby ładowanie do pamięci UMA sterowników urządzeń i programów rezydentnych. Jednak nie to stanowi główny problem. Umieszczanie w komputerze kolejnych kart powoduje często powstawanie „dziur" niewykorzystanego obszaru UMA - co oczywiście jest rozwiązaniem lepszym niż zachodzenie na siebie obszarów, jednak nie jest optymalnym wykorzystaniem przestrzeni adresowej komputera. Chcąc wykorzystać jak największy obszar pamięci UMA, można by na podstawie dokumentacji kart ustalić sposób na „upchnięcie" fragmentów UMA wykorzystywanych przez poszczególne karty w komputerze. Wykorzystanie obszaru UMA przez poszczególne urządzenia powinno bardziej przypominać mur z cegieł niż ser szwajcarski, jak jest w iększości komputerów. Im bardziej uda się zmniejszyć liczbę fragmentów wolnej pamięci UMA, tym wydajniej i w sposób bardzie zwarty będzie można z niej korzystać.
Wykorzystywanie nieużywanej pamięci z obszaru U M A W komputerach z 16-bitowym systemem operacyjnym, np. Windows 3.1 czy DOS, programy rezydentne oraz sterowniki urządzeń mogą być umieszczane w pamięci UMA za pomocą programów takich jak MEMMAKER czy QMM firmy Quartdeck. Programy te służą do zarządzania pamięcią i sprawdzają ilość pamięci zajmowanej przez programy rezydentne i sterowniki urządzeń, a następnie szukają najlepszego sposobu na umieszczenie ich w pamięci UMA, zwalniając w ten sposób pamięć podstawową. Posługiwanie się programami MEMMAKER czy QMM jest dość proste. Przed rozpoczęciem pracy z nimi należy sporządzić kopię zapasową plików CONFIG.SYS i AUTOEXEC.BAT, aby w razie potrzeby móc przywrócić poprzednią konfiguracją komputera. Następnie z linii poleceń systemu DOS uruchamiamy program MEMMAKER albo program QMM z dysku instalacyjnego. Obydwa programy, poprzez odpowiednie wpisy w pliku CONFIG.SYS, zainstalują w komputerze wymagane sterowniki, a następnie przystąpią do optymalizowania konfiguracji pamięci w komputerze. Praca wykonana przez obydwa programy polega na zwalnianiu obszarów pamięci podstawowej, jednak QMM potrafi automatycznie zwolnić więcej pamięci podstawowej i w krótszym czasie niż większość pozostałych programów tego typu. Możliwe jest również ręczne zarządzanie pamięcią tylko za pomocą programów HIMEM.SYS i EMM386.EXE, w wyniku czego otrzymamy konfigurację, jakiej nie osiągnąłby automatycznie żaden program. Wymóg ładowania w obszar pierwszego megabajta pamięci dotyczy tylko programów pracujących w trybie rzeczywistym procesora. Kod sterowników pracujących w trybie rzeczywistym jest 16-bitowy. Programy te nie mogą rezydować w pamięci XMS, ponieważ w trybie rzeczywistym dostępny jest tylko pierwszy megabajt pamięci. Systemy operacyjne DOS i Windows 3.x są programami 16-bitowymi, pracującymi w trybie rzeczywistym, stąd potrzeba optymalizacji wykorzystywania przez nie pamięci podstawowej. Zważywszy na dużą ilość sterowników programowych wykorzystywanych obecnie w komputerach, byłoby trudnym zadaniem umieszczenie ich wszystkich w dostępnym obszarze UMA i wydzielenie odpowiednio dużego wolnego obszaru w pamięci podstawowej dla aplikacji. Nowsze systemy operacyjne przyczyniły się do zmiany tej sytuacji. Np. Windows 95 korzysta głównie z 32-bitowych sterowników i programów pracujących w trybie chronionym, chociaż wciąż pozostaje jeszcze duża ilość programów 16-bitowych. Systemy operacyjne Windows NT i OS/2 są systemami w pełni 32-bitowymi, a wszystkie ich sterowniki i aplikacje pracują w trybie chronionym. Jeżeli wszystkie programy, z których korzystamy, są 32-bitowe, to niepotrzebna jest właściwie żadna optymalizacja w obszarze pierwszego megabajta pamięci, ponieważ programy 32-bitowe mogą z powodzeniem pracować w obszarze pamięci XMS. W kolejnym podrozdziale opiszemy, jak z pomocą oprogramowania zarządzającego pamięcią zoptymalizować pamięć podstawową. Omówimy także inne sposoby konfigu-rowania pamięci komputera, tak aby komputer pracował jak najwydajniej. Pamiętajmy, że w przy umieszczaniu sterowników urządzeń i programów rezydentnych w pamięci UMA przez program MEMMAKER ważną rolę odgrywają sterowniki HIMEM.SYS i EMM386.EXE. Kolejne dwa podrozdziały opisują posługiwanie się programami HIMEM.SYS i EMM386.EXE do konfigurowania pamięci XMS i EMS.
Jeżeli starsze 16-bitowe aplikacje systemu DOS są uruchamiane w systemach Windows 95, Windows NT czy OS/2, to również przydaje się wiedza o podstawowych technikach optymalizacji pamięci. Każda aplikacja pracuje wtedy w osobnym oknie DOS-a - w wirtualnym trybie rzeczywistym, w którym emulowany jest cały pierwszy megabajt - obszar roboczy trybu rzeczywistego. Pracując w 32-bitowym systemie operacyjnym, można zmienić parametry konfiguracyjne i organizację pamięci aplikacji działających w oknie DOS-a. Korzystanie z programu HIMEM.SYS (w systemie DOS) Sterownik HIMEM.SYS, dostarczany wraz z systemami Windows i DOS począwszy od wersji 4.0, służy do konfigurowania pamięci powyżej pierwszego megabajta, tak aby spełniała specyfikację XMS. Jego zadaniem jest także udostępnienie pierwszych 64 kB drugiego megabajta pamięci jako obszaru ,.pamięci wysokiej" (ang. High Memory Area, HMA). Instalacja programu HIMEM.SYS odbywa się poprzez dodanie linii wywołującej program do pliku CONFIG.SYS. Specyfikacja pamięci XMS została opracowana przez firmy Microsoft, Intel, AST Corp. oraz Lotus Development w roku 1987 i określa sposób wykorzystania pamięci powyżej pierwszego megabajta w komputerach z procesorem 286 (lub lepszym). Pamięć XMS pozwala programom trybu rzeczywistego (przeznaczonych do pracy w systemie DOS) na korzystanie z pamięci powyżej pierwszego megabajta na kilka różnych sposobów. Korzystanie z programu EMM386.EXE (DOS) Program EMM386.EXE, dostarczany z systemem DOS począwszy od wersji 5.0, służy przecie wszystkim do mapowania pamięci XMS (pamięci powyżej pierwszego megabajta zarządzanej przez program HIMEM.SYS) w niewykorzystane fragmenty obszaru adresowego UMA. Dzięki temu w obszar UMA mogą być ładowane programy systemu DOS. Drugą funkcją programu EMM386.EXE jest emulacja pamięci EMS w wersji 4 za pomocą pamięci XMS. Więcej informacji o korzystaniu z programu EMM386.EXE można znaleźć w książce wydawnictwa Que, pt. „Using MS-DOS 6.0" albo w dokumentacji systemu DOS. Program M E M MĄKĘ R w systemie DOS 6.0 Ilość dostępnej dla aplikacji pamięci podstawowej w komputerze z procesorem 386 (lub nowszym) można zwiększyć za pomocą programu MEMMAKER, dostarczanym z systemem DOS 6.0. System DOS w wersji 5.0 ma możliwość mapowania, za pomocą programu EMM386.EXE, pamięci XMS w obszar UMA, dzięki czemu mogą tam być ładowane sterowniki i programy rezydentne systemu DOS. Niestety, posługiwanie się nim wymaga dość rozległej wiedzy o konfiguracji obszaru UMA w konkretnym komputerze. Dopasowanie programów do wolnych fragmentów obszaru UMA wymaga posługiwania się metodą prób i błędów. Dla wielu użytkowników jest to jednak dość trudne do przeprowadzenia i dlatego nie korzystają oni w pełni efektywnie z pamięci komputera w systemach DOS (i Windows).
Aby sprawę ułatwić, firma Microsoft wraz z systemem DOS 6.0 zaczęła dostarczać program MEMMAKER sterowany za pomocą menu, którego zadaniem jest określenie konfiguracji komputera i na tej podstawie wygenerowanie odpowiednich sekwencji wywołań programu EMM386.EXE i umieszczenie ich w pliku CONFIG.SYS. Dzięki programowi MEMMAKER, bądź też poprzez ręczne manipulowanie obszarem UMA. można ładować sterowniki urządzeń i programy rezydentne do pamięci UMA. dzięki czemu do dyspozycji będzie ponad 600 kB pamięci podstawowej. Przez miesiące lub lata użytkowania komputera program)- instalacyjne różnych programów użytkowych instalują często tak duże ilości programów rezydentnych i sterowników, za pośrednictwem plików AUTOEXEC.BAT i CONFIG.SYS, że po pewnym czasie zaczyna brakować pamięci podstawowej na uruchamianie wszystkich programów. Dzięki programowi MEMMAKER można zwolnić dla tych programów więcej pamięci podstawowej. Pomoc na temat programu MEMMAKER można uzyskać wpisując z linii poleceń polecenie HELP MEMMAKER. Po uruchomieniu program MEMMAKER automatycznie przeprowadza następujące akcje: 4 Przeniesienie części jądra systemu DOS w obszar HMA. 4 Przesunięcie wolnych obszarów pamięci XMS w obszar UMA jako tzw. Upper Memory Blocks (UMB). DOS może wówczas ładować w ten obszar swoje sterowniki i programy rezydentne, zwalniając tym samym pamięć podstawową, którą zajmowałyby te programy. 4> Modyfikacja plików AUTOEXEC.BAT i CONFIG.SYS, tak aby system DOS ładował programy rezydentne i sterowniki urządzeń w obszary UMB. Zanim uruchomimy program EMM386.EXE, powinniśmy uważnie prześledzić pliki CONFIG.SYS i AUTOEXEC.BAT, aby zidentyfikować niepotrzebne sterowniki urządzeń czy programy rezydentne. Np. sterownik ANSI.SYS, który jest ładowany za pośrednictwem pliku CONFIG.SYS, odpowiada za obsługę kolorów i innych atrybutów znaków w linii poleceń DOS-a, służy także do zmiany przyporządkowania znaków na klawiaturze. Jeżeli pracujemy przede wszystkim w środowisku Windows i nie korzystamy zbyt często z linii poleceń DOS-a, to możemy usunąć sterownik ANSI.SYS z pliku CONFIG.SYS i zwolnić w ten sposób pamięć zajmowaną przez ten sterownik. Innym często ładowanym sterownikiem, który nie jest potrzebny większości użytkowników, jest SETVER. Jeżeli nie zamierzamy korzystać z programów, które wymagają konkretnej wersji systemu DOS, możemy usunąć ten sterownik z pliku CONFIG.SYS. Po „okrojeniu" plików AUTOEXEC.BAT i CONFIG.SYS do najważniejszych funkcji (dobrze jest przedtem zrobić kopie zapasowe obydwu plików), możemy przystąpić do optymalizacji pamięci za pomocą programu MEMMAKER. Przy uruchamianiu tego programu powinniśmy postępować według poniższych wskazówek: 1. Zakończyć działanie wszystkich programów. 2. Uruchomić tylko najniezbędniejsze sterowniki sieciowe i programy rezydentne. 3. Z linii poleceń DOS-a wpisać MEMMAKER.
Rozbudowa i naprawa komputerów PC Program MEMMAKER ma dwa tryby pracy, zwane Express i Gustom. Pierwszy z nich jest przeznaczony dla użytkowników, którzy chcieliby, aby sterowniki urządzeń i programy rezydentne były ładowane w obszar pamięci wysokiej, lecz nie mają ochoty na dłuższą pracę z programem. Tryb ten możemy wybrać, jeżeli nasz monitor nie jest monitorem EGA albo VGA. Jeżeli mamy monitor EGA albo VGA, to wybieramy Gustom Setup i na pytanie, czy program MEMMAKER może wykorzystać obszar trybu monochromatycznego karty graficznej (BOOOO-B7FFF) do ładowania programów, odpowiadamy twierdząco (Yes). W pozostałych opcjach wybieramy ustawienia domyślne, chyba że wiemy, iż jakieś ustawienie domyślne nie jest w naszym komputerze ustawieniem poprawnym. Wybranie trybu Gustom nie jest dobrym pomysłem, jeżeli nie posiadamy wystarczającej wiedzy o optymalizacji konfiguracji pamięci w komputerze; dotyczy to zwłaszcza sterowników programowych i programów rezydentnych. Ponadto MEMMAKER modyfikuje te linie w plikach CONFIG.SYS i AUTO-EXEC.BAT, które ładuj ą sterowniki urządzeń i programy rezydentne. Programy te będą teraz ładowane w obszary UMB. Linie w pliku CONFIG.SYS zaczynające się od DEVICE= zostaną zmienione na DEVICEHIGH=, a linie w pliku AUTOEXEC.BAT postaci C:\DOS\DOSKEY będą zmienione na LH C:\DOS\DOSKEY. Polecenia DEYICEHIGH i LH wymuszają ładowanie programów rezydentnych i sterowników programowych w obszar UMB. Program MEMMAKER dodaje także odpowiednie kody specyfikujące miejsce w pamięci UMA, pod które zostanie załadowany każdy program czy sterownik. Przykładowa sekwencja w pliku AUTOEXEC.BAT wygenerowana przez program MEMMAKER mogłaby mieć następującą postać: LH /L:l C:\DOS\DOSKEY Parametr /L: l powoduje, że program rezydentny DOSKEY zostanie załadowany w pierwszy obszar UMB. W wielu przypadkach MEMMAKER potrafi skonfigurować komputer zwalniając w nim aż do 620 kB pamięci podstawowej. Program QEMM firmy Quarterdeck W większości przypadków zwalniania pamięci podstawowej, program MEMMAKER przynosi zadowalające efekty, jednak w komputerach o bardziej złożonej konfiguracji sprzętowej, z licznymi zainstalowanymi programami rezydentnymi i sterownikami urządzeń, lepsze rezultaty może przynieść program QEMM firmy QUARTERDECK. W tym podrozdziale opiszemy program QEMM. Dla systemów operacyjnych Windows 95 czy Windows NT dostępne są nowsze wersje tego narzędzia, dostosowane do tych systemów operacyjnych. Jedną z zalet programu QEMM jest prostota jego instalacji i obsługi. Zanim uruchomimy program instalacyjny QEMM INSTALL, zróbmy kopie plików AUTOEXEC.BAT i CONFIG.SYS, aby mieć je pod ręką, gdy będziemy musieli przywrócić poprzednią
konfigurację komputera. Przy uruchamianiu tego programu powinniśmy postępować według poniższych wskazówek: 1. Zakończyć działanie wszystkich programów. 2. Z linii poleceń DOS-a przejść do katalogu, w którym znajduje się dysk instala cyjny programu QEMM, i uruchomić program INSTALL. Pliki programu QEMM zostaną skopiowane do katalogu C:\QEMM (albo innego wybranego przez nas katalogu). 3. Program instalacyjny załaduje program użytkowy Optimize, który oblicza rozmiar obszaru pamięci zajmowanej przez programy rezydentne oraz sterowniki urządzeń i dla każdego z tych programów określa odpowiedni obszar w pamię ci UMA. W czasie trwania tego procesu komputer jest kilka razy restartowany (lub też pojawiają się komunikaty informujące użytkownika, aby wyłączył i włączył komputer). 4. Po skończeniu pracy programu Optimize, za pomocą komendy MEM wpisanej z linii poleceń możemy sprawdzić ilość dostępnej w komputerze pamięci pod stawowej. Gdy programu QEMM jest już zainstalowany, po każdym dodaniu nowego programu rezydentnego czy sterownika albo umieszczeniu w komputerze lub wyjęciu z niego nowej karty rozszerzającej (co może zmienić konfigurację pamięci UMA) powinniśmy ponownie uruchomić program Optimize. Dodatkowe informacje o instalacji i pracy programu QEMM można znaleźć w podręczniku dostarczanym z programem. Jedną z zalet programu jest dołączony program diagnostycznego MANIFEST. Spełnia on podobne funkcje jak program MSD, dostarcza jednak więcej szczegółowych informacji o komputerze. Instalacja w komputerze nowszej wersji ROM BIOS W tym podrozdziale dowiemy się, jak „unowocześnienie" pamięci ROM BIOS może na wiele sposobów polepszyć wydajność komputera. Okaże się, że wymiana ROM BIOS może być dość skomplikowana i będzie wymagać od użytkownika znacznie więcej niż tylko umieszczenia w komputerze kilku kostek ROM. Pamięć ROM BIOS (read-only memory input/output system) dostarcza komputerowi podstawowych środków do współpracy wszystkich jego podzespołów. Prosta wymiana ROM BIOS, której koszt waha się w granicach $30-590, może zwiększyć wydajność komputera i dodać nowe możliwości. BIOS jest tym, co powoduje, że system operacyjny DOS może działać na prawie każdym komputerze kompatybilnym z IBM, pomimo różnić sprzętowych. BIOS komunikuje się z urządzeniami komputera, dlatego musi być do nich dopasowany. Zamiast opracowywać własne rozwiązania BIOS-u, wielu producentów komputerów kupuje BIOS od firm specjalizujących się w jego wykonywaniu: AMI (American Megatrends Inc.), Microid
Research czy Phoenix Technologies Ltd. Producent komputerów, który chce uzyskać licencjonowany BIOS od tych firm. musi przejść długi proces dopasowywania kodu BlOS-u do potrzeb konkretnego sprzętu. Oto dlaczego proces wymiany BIOS-u w komputerze tak bardzo się komplikuje. Kod BlOS-u rezyduje zazwyczaj w układach pamięci ROM umieszczonych na płycie głównej komputera. BIOS jest zbiorem krótkich procedur osadzonych na stałe w układzie albo układach (w zależności od typu komputera) pamięci EPROM (erasable programmable read-only memory). Programy te są ładowane do pamięci jako pierwsze po starcie komputera, jeszcze zanim zostanie załadowany system operacyjny. BIOS pełni w komputerze trzy główne funkcje: 4 Przeprowadza test podzespołów komputera przy starcie systemu. Test ten, określany jako POST (power-on self test), sprawdza pamięć komputera, płytę główną, kartę graficzną, kontroler dysku, klawiaturę i inne komponenty. 4 Jeżeli na dysku zostanie znaleziony system operacyjny, BIOS załaduje go do pamięci komputera (ang. bootstrap loader routine). Po załadowaniu system operacyjny przejmuje kontrolę nad komputerem. 4 Po załadowaniu systemu operacyjnego BIOS współpracuje z procesorem, udostępniając wykonywanym programom specyficzne cechy komputera. Np. BIOS określa, co się stanie, jeśli programy zażądają dostępu do jednego z urządzeń - karty graficznej czy dysku twardego. W starszych komputerach konieczna była wymiana BIOS-u, jeżeli użytkownik chciał korzystać z nowych urządzeń instalowanych w komputerze - np. niektórych nowszych typów kontrolerów dysków IDE (Integrated Drive Electronics) czy stacji dysków LS120/ZIP. W sprzedaży nadal można spotkać komputery ze starszą wersją BIOS-u, która nie dopuszcza definiowania przez użytkownika typów dysku, co jest potrzebne do łatwej instalacji dysku IDE czy do uniknięcia kłopotów z zależnościami czasowymi dysków IDE. Poniższa lista przedstawia nowe funkcje i możliwości, jakie pojawiły się po zmianie wersji BlOS-u na nowszą: 4 Umożliwienie współpracy z dyskami IDE LS120 i ZIP * Praca z dyskami IDE większymi od 8 GB 4 Praca dysków w trybie UDMA 4 Umożliwienie startu systemu operacyjnego (boot) z CD-ROM-u 4 Dodanie lub udoskonalenie Plug-and-Play 4 Poprawienie znanych błędów - na przykład błędu roku 2000 4 Zmiana procesora na nowszy
Z powodu różnorodności płyt głównych spotykanych na rynku, zamówienie nowej wersji BIOS-u jest bardziej skomplikowane, niż to się może wydawać. W przypadku markowego komputera proces ten może być stosunkowo prosty. W przypadku mniej znanych komputerów PC, sprzedawca BIOS-u będzie potrzebował od nas informacji o komputerze, np. co do typu chipsetu płyty głównej. W większości przypadków przy wymianie BIOS-u musimy uzyskać następującą informację: •
*• Marka i model komputera lub płyty głównej
•
+ Typ procesora (np. Pentium MMX, AMD K6, Cyrix/IBM 6x86MX, MII, Pentium II)
•
Marka i wersja aktualnej wersji BIOS-u w komputerze
Zintegrowany układ chipscl (ang. integrated chipset) jest grupą układów znajdujących się na oryginalnej płycie głównej AT, mogących pełnić funkcje setek elementów dyskretnych. Wiele z tych układów oferuje funkcje, które są dostępne tylko wtedy, gdy mamy odpowiednią wersję BIOS-u. Obecnie większość różnic pomiędzy komputerami bierze się z różnorodności chipsetów wykorzystywanych do produkcji komputerów i ze specjalnego sposobu inicjowania tych układów, który jest niezbędny do ich prawidłowego funkcjonowania. BIOS musi również reagować na różnice w kodzie programu zaszytego w kontrolerach klawiatury i obsługiwać różne niestandardowe funkcje, takie jak przełączanie częstotliwości zegara. Np. komputer z chipsetem firmy Chips & Technologies NEAT, musi mieć BIOS zaprojektowany specjalnie na potrzeby tego układu. BIOS musi w odpowiedni sposób zainicjować rejestry układu NEAT, bo inaczej komputer nie mógłby nawet wystartować. BIOS musi również obsługiwać specjalne funkcje tego nieładu. Dla poprawnej pracy każdego z popularnych chipsetów w komputerach z procesorem 286, 386, 486, Pentim, Penlium-MMX, Pentium Pro i Pentium II wymagany jest odpowiedni BIOS. BIOS ogólnego przeznaczenia może co prawda uruchomić niektóre komputery, jednak pewne funkcje, takie jak przełączanie procesora w tryb chroniony i z powrotem w tryb rzeczywisty, mogą być niedostępne bez odpowiedniego BIOS-u. Układy kontrolera klawiatury W komputerach klasy AT oprócz głównej pamięci ROM jest również pamięć ROM kontrolera klawiatury. Kontroler klawiatury jest mikroprocesorem obsługującym klawiaturę, wyposażonym we własną pamięć ROM. Jest nim zazwyczaj układ Intel 8042, który skupia w sobie mikroprocesor, pamięć ROM. RAM i porty wejścia/wyjścia. Kontroler klawiatury jest najczęściej układem 40-końcówkowym, zaopatrzonym często w etykietkę informującą o prawach handlowych do kodu BIOS-u zaszytego wewnątrz kontrolera. Układ kontrolera klawiatury sprawuje nadzór nad linią reset i linią A20 oraz przeprowadza interpretację kodów naciskanych klawiszy. Linia adresowa A20 jest wykorzystywana do komunikacji z pamięcią HMA i do operacji w trybie chronionym. W wielu komputerach
jeden z niewykorzystanych portów kontrolera jest używany do określenia częstotliwości zegara procesora. Z powodu bliskich związków kontrolera klawiatury z pracą w trybie chronionym, wiele problemów z kontrolerem klawiatury staje się widocznych w czasie pracy w systemie Windows czy OS/2. Jeżeli w czasie pracy w systemie Windows czy OS/2, albo z innym oprogramowaniem pracującym w trybie chronionym procesora, np. Lotus 1-2-3 wersja 3.x, występują zawieszenia czy problemy z klawiaturą, powinniśmy zaopatrzyć się w nową wersję BIOS-u u jego producenta albo u producenta płyty głównej. W komputerach IBM wymiana kontrolera klawiatury na nowy nie jest konieczna (wymiana taka byłaby utrudniona, ponieważ układ ten jest normalnie przylutowany do płyty). Większość producentów komputerów kompatybilnych z IBM umieszcza układ kontrolera klawiatury w gnieździe, dzięki czemu można go łatwo wymienić. Jeżeli dokonujemy wymiany BIOS-u w naszym komputerze, sprzedawca BIOS-u często dostarcza wraz z nim także kompatybilny kontroler klawiatury. Zazwyczaj nie musimy osobno kupować kontrolera klawiatury, chyba że pojawiają się problemy ze współpracą starego kontrolera z nowym BlOS-em. Producenci i sprzedawcy BIOS-u Oprogramowanie ROM BIOS, przeznaczone dla komputerów IBM i kompatybilnych, zostało opracowane przez kilku producentów. Oto najwięksi producenci programów ROM BIOS: •
Phoenix •
American megatrends international (AMI)
•
Award
Firma Phoenix jako pierwsza opracowała w legalny sposób BIOS kompatybilny z BlOS-em IBM, nie naruszając przy tym praw autorskich firmy IBM. Firma ta również jako pierwsza wprowadziła wiele nowych funkcji, np. typy dysków twardych definiowane przez użytkownika czy obsługę stacji dyskietek 1,44 MB. Phoenix BIOS ma bardzo dobry program testujący POST, który w wyczerpujący sposób informuje o różnych błędach, zwłaszcza kiedy komputer sprawia wrażenie całkowicie „martwego". Dokumentacja BIOS-u firmy Phoenix, składająca się z trzech książek, jest jedną z zalet tego produktu. W skład dokumentacji wchodzą następujące książki: System BIOS for IBM PC/XT/AT Computers and Compatibles, CBIOS for IBM PS/2 Compitters and Compatibles oraz ABIOS for IBM PS/2 Computers and Compatibles. Są to doskonałe publikacje wydawnictwa Addison-Wesley, które polecam każdemu użytkownikowi PC, nawet tym, którzy nie mają w komputerach BIOSu firmy Phoenix (choć niektóre, specyficzne informacje mogą nie mieć zastosowania w przypadku innych komputerów). BIOS firmy AMI jest obecnie bardzo popularny i w wersjach dla nowych komputerów przewyższa Phoenix BIOS. Program testujący POST jest mniej wyczerpujący niż w przypadku BIOS-u firmy Phoenix, jednak osobny program testujący znajdzie użytkownik w pamięci ROM. Program ten można nawet kupić oddzielnie pod nazwą AMIDIAG. Wersja programu w pamięci ROM jest jednak pozbawiona możliwości
testowania pamięci RAM, co ma szczególnie duże znaczenie, gdy uszkodzona jest pamięć w obrębie pierwszego banku. Z drugiej strony, AMI BIOS jest w wysokim stopniu kompatybilny ze standardem PC BIOS-u; jest dostępny w odmianach dla kilku różnych układów chipset i różnych płyt głównych. Zaletą produktu jest także pomoc techniczna. Gdy w BlOS-ie wykryto błędy, firma AMI je usunęła, dzięki czemu produkt spisuje się bez zarzutu w systemie OS/2 i innych „trudnych" środowiskach. Firma AMI produkuje własne płyty główne, dlatego ma znaczącą przewagę nad innymi producentami BIOS-u. Jeżeli płyta główna i BIOS pochodzą z tego samego źródła, to ewentualne problemy ze współpracą płyty z BlOS-em może szybko rozwiązać ich producent, bez zrzucania winy na innego producenta. Generalnie nie trzeba się martwić o kompatybilność płyt głównych i BIOS-u firmy AMI, dlatego zalecam także kupowanie płyt głównych AMI. Nawet jeżeli pojawią się jakieś problemy, firma AMI na pewno je rozwiąże. Trzeci producent oprogramowania ROM BIOS, firma Award, wyrobiła sobie markę przy pomocy innych producentów, ponieważ firma ta udziela licencji na kod swojego BIOS-u z możliwością jego modyfikacji. Np. firma AST zakupiła prawa do Award BIOS-u w celu wykorzystania go w swoich komputerach i obecnie może BIOS ten modyfikować, tak jakby sama go stworzyła od podstaw. Firma AST mogła rozwijać swój BIOS traktując produkt firmy Award jako punkt wyjścia. Award dostarcza także kod BIOS-u dostosowany do indywidualnych potrzeb producentów komputerów. BIOS firmy Award jest bardzo popularny, chociaż nie tak bardzo, jak produkty firm AMI czy Phoenix, zapewnia jednak kompatybilność z oryginałem nawet w tak „trudnych" środowiskach jak OS/2. Jeżeli chcemy wymienić BIOS w komputerze na nowszy, możemy zaopatrzyć się w układy z nową wersją wprost u producenta albo u następujących, godnych polecenia dystrybutorów: * Micro Finnware Inc. Firma Micro Firmware ma w ofercie wyczerpującą listę produktów firmy Phoenix, dostępne jest ponad 50 powszechnie stosowanych wersji BIOS-u dla procesorów 8088, 286, 386, 486, Pentium i lepszych. Firma ta opracowuje nowsze wersje BIOS-u dla określonych platform sprzętowych, nawet gdy producenta oryginalnego BIOS-u nie ma już na rynku. Wielu sprze dawców BIOS-u oferuje produkty opracowane przez Firmę Micro Firmware dla określonych platform sprzętowych. * Washbourn & Company Disiributors. Firma ta jest licencjonowanym dystry butorem firmy AMI i zajmuje się opracowywaniem nowszych wersji tylko BIOS-u firmy AMI. Firma ta jest w posiadaniu praw do płyt głównych i BIOSu firmy AMI. Jako główny dystrybutor AMI, firma Washbourn posiada dużą wiedzę w zakresie problemów z zamianą BIOS-u w komputerze na nowszą wersję. Firma ta oferuje również produkt o nazwie Second Naturę, który zwal nia użytkownika z konieczności wymiany BIOS-u, jeżeli wszystko, czego
użytkownik potrzebuje, to obsługa dodatkowego dysku twardego czy stacji dyskietek. Specyficzne problemy związane z pamięcią ROM BIOS W niektórych wersjach ROM BIOS, a także w niektórych komputerach sprzedawanych w ostatnich latach, wykryto pewne problemy. Niektóre z nich mogą dotyczyć dużych grup użytkowników, ponieważ albo są dość poważne, albo też są spotykane na wielu komputerach. Kolejny podrozdział opisuje część najpoważniejszych ujawnionych problemów związanych z BlOS-em albo współpracą BIOS-u z komputerem, a także sposoby rozwiązywania tych problemów. Niektóre komputery, nawet te wyposażone w stosunkowo nowy BIOS z lat 1992 i 1993, mogą nie wystartować po wymianie systemu operacyjnego DOS na wersję 6.0. Niektóre, starsze wersje BIOS-u pochodzą z lat, kiedy obowiązującą wersją systemu DOS była wersja 3.3 albo starsza. W rezultacie starsze wersje BIOS-u nie mogą korzystać z zaawansowanych możliwości systemu DOS 6.0. Użytkownicy komputera AT&T 6300 powinni się zaopatrzyć w wersję 1.43 BIOS-u, która jest najnowszą wersją dla tego komputera. W wersji tej rozwiązano wiele problemów występujących w starszych komputerach 6300, a także wbudowano obsługę stacji dyskietek 720 kB. Wersja 1.43 BIOS-u jest osiągalna za $35 w sprzedaży wysyłkowej firmy AT&T National Parts Sales Centre pod numerem produktu 105203780. W niektórych komputerach wyposażonych w AMI BIOS pojawiają się problemy z dyskami IDE. Napędy IDE były reklamowane jako w pełni kompatybilne z istniejącymi na rynku napędami ST-506/412 (MFM albo RLL) i napędami ESDI. Niektóre napędy IDE tracąjednak zbyt dużo czasu pomiędzy nadejściem kodu rozkazu a pojawieniem się danych w porcie. Pod koniec roku 1989 firma AMI odebrała wiele skarg na współpracę z napędami IDE, zwłaszcza firm Conner i Toshiba. Z powodu tych problemów nie zaleca się korzystania na komputerach z napędem IDE z BIOS-u firmy AMI z datą wcześniejszą niż 9 kwietnia 1990 r. W przypadku stosowania wcześniejszych wersji, na dysku może nastąpić utrata danych. W przypadku niektórych dysków, zwłaszcza firmy Conner, mogą pojawiać się błędy typu Drive c no t ready. Użytkownicy komputerów z dyskami IDE i AMI BlOS-em z datą wcześniejszą niż 9 kwietnia 1990 r. powinni się zaopatrzyć w nowy BIOS u sprzedawcy komputera. Aby ustalić wersję BIOS-u firmy AMI, spójrzmy na numer w lewym dolnym rogu ekranu, widoczny w czasie startu komputera: XXXX-ZZZZ-040990 NUMER 040990 oznacza BIOS z datą 9 kwietnia 1990 roku - najstarszą wersję, jaką można bezpiecznie stosować. Starszych wersji można używać tylko w komputerze bez dysku IDE. Symbol xxxx-zzzz oznacza kod BIOS-u i numer identyfikacyjny producenta OEM (original eąuipment manufacturer). Np. w przypadku płyt głównych firmy AMI kod ten ma postać DAMI-[kod modelu].
Wymiana BIOS-u komputera Użytkownicy mający odpowiednią wiedze i narzędzia mogą się pokusić o przeprowadzenie interesującej modyfikacji komputera, polegającej na wymianie BIOS-u. W kolejnym podrozdziale omówię modyfikacje, które
przeprowadziłem w swoim komputerze (dały one efekty w moim komputerze, co oznacza, że niekoniecznie muszą działać w innych komputerach). Poza oczywistymi korzyściami płynącymi z wymiany BIOSu, przeprowadzenie modyfikacji pozwoliło mi na zdobycie dodatkowej wiedzy w zakresie komputerów IBM i kompatybilnych. Wiem także, że wielu czytelników jest zainteresowanych tego rodzaju informacjami.
Modyfikację BIOS-u w komputerach powinni przeprowadzać tylko ci czytelnicy, którzy mają „smykałkę" techniczną albo są bardzo żądni przygód. Pozostałe osoby, a zwłaszcza ci, dla których niezawodność komputera jest sprawą bardzo istotną, nie powinni przeprowadzać takich modyfikacji. Jednak informacje te mogą zainteresować nawet tych czytelników, którzy nie zamierzają dokonywać modyfikacji ROM BIOS-u. Więcej informacji na temat BIOS-u, w tym takich możliwości jak usunięcie opcji sprawdzania szybkości komputera w czasie testu POST (ang. POST Spęd Check), sporządzanie kopii zapasowej ROM BIOS komputera, modyfikacja tabeli parametrów dysku twardego i zmiana kroku głowicy dysku twardego, można znaleźć na płycie CD dostarczanej wraz z książką. Informacje te można również znaleźć w rozdziale siódmym wydania szóstego tej książki. Zmiana BIOS-u w pamięci typu FlashROM Zanim przystąpisz do uaktualniania BIOS-u, musisz się zaopatrzyć w jego uaktualnioną wersję, przygotowaną przez producenta twojej płyty głównej. Połącz się ze stroną główną producenta, przejdź do podstrony z uaktualnionymi wersjami BIOS-u, a następnie wybierz i zgraj uaktualniony BIOS twojej płyty głównej. Program narzędziowy uaktualniający BIOS to najczęściej samorozpakowujące się archiwum, które po zgraniu ze strony producenta powinno zostać rozpakowane i skopiowane na dyskietkę, zanim jeszcze rozpoczniesz proces aktualizacji. Programy i sposoby aktualizacji BIOSu nieco się różnią w zależności od producenta, najlepiej więc przed aktualizacją przeczytać instrukcję, dołączoną najczęściej do uaktualnionej wersji. Poniżej została przedstawiona instrukcja postępowania dla płyt głównych Intela, ponieważ są one najbardziej popularne. Pierwszym krokiem po zgraniu uaktualnionego BIOS-u powinno być wejście do konfiguracji CMOS i zanotowanie wszystkich aktualnych ustawień, ponieważ podczas uaktualniania BIOS-u zostaną one wymazane. Następnie należy utworzyć DOS-ową dyskietkę startową i rozpakować na nią pliki uaktualniające BIOS, znajdujące się
w ściągniętym z sieci pliku. Następnie powinieneś zrestartować i uruchomić komputer z utworzonej przed chwilą dyskietki i dalej postępować już zgodnie z instrukcjami na ekranie. Poniżej został krok po kroku przedstawiony sposób postępowania przy uaktualnianiu BIOS-u: 1. Zapisz aktualne ustawienia konfiguracji zawarte w pamięci CMOS. By uzyskać do nich dostęp, musisz, naciskając odpowiedni klawisz podczas uruchamiania się komputera (Fl w BlOS-ach AMI, F2 w BlOS-ach Phoenix, a Delete w BlOSach Award), wejść do programu konfiguracyjnego. Po uaktualnieniu BIOS-u wszystkie ustawienia zresetują się do wartości domyślnych producenta, powinieneś więc zapisać wszystkie ustawienia charakterystyczne dla twojego komputera. Szczególną uwagę zwróć na ustawienia twardego dysku; są one bardzo ważne. Jeśli pomylisz się przy ich ponownym wpisywaniu, nie będziesz mógł uru chomić komputera z dysku, nie będzie również możliwe odczytanie zawartych na nim danych. 2. Wyjdź z programu konfiguracyjnego BIOS-u i uruchom ponownie komputer. Pozwól komputerowi na załadowanie systemu Windows i wywołaj okno trybu MS-DOS lub też przejdź do DOS-u bezpośrednio, jeszcze przed uruchomieniem się Windows (na przykład przytrzymując przycisk F8 po zobaczeniu napisu „Uruchamianie systemu Windows" i wybierając z menu „Tylko wiersz poleceń"). 3. Umieść dyskietkę w stacji dysków A: i sformatuj ją za pomocą polecenia FORMAT z parametrem /S, tak jak zostało to pokazane poniżej: C:\>FOKMAT A:
/S
4. Jeśli masz sformatowaną już wcześniej, czystą dyskietkę, możesz zamiast na nowo ją formatować, tylko przenieść na nią system, wykorzystując w następu jący sposób polecenie SYS: C:\>SYS A: 5. Plik, który wcześniej zgrałeś ze strony WWW Intela, powinien być samorozpakowującym się, skompresowanym archiwum, zawierającym w sobie wiele spakowanych plików. Umieść zgrany plik w tymczasowym katalogu, a następ nie dwukrotnie kliknij na jego ikonę lub też będąc w tym samym katalogu, wpisz jego nazwę i naciśnij Enter. Po uruchomieniu, plik sam się rozpakuje. Jeśli na przykład plik, który zgrałeś, nosi nazwę SEBIOS04.EXE (dla płyt głównych Intel SE440BX), powinieneś wpisać następujące polecenie: C:\TEMP>SEBIOS04 6. Wśród rozpakowanych plików powinien znajdować się plik noszący nazwę BIOS.EXE oraz plik tekstowy zawierający licencję oprogramowania. Teraz, podobnie jak wcześniej, powinieneś rozpakować BIOS.EXE na dyskietkę sys temową, wpisując: C:\TEMP>BIOS A: 7. eraz możesz zrestartować komputer i uruchomić go z umieszczonej w stacji A: dyskietki startowej, zawierającej rozpakowane pliki nowego BIOSu. Podczas uruchamiania się komputera z dyskietki, automatycznie zostanie
wywołany program IFLASH; po ujrzeniu znaku zachęty naciśnij Enter. 8. Wybierz „Save to flash memory area to file" i naciśnij Enter. Wpisz po ujrze niu zapytania nazwę pliku. Pod tą nazwą zostanie utworzona kopia zapasowa aktualnego BIOS-u, na wypadek, gdyby nowy BIOS wywołał nieoczekiwane problemy. 9. Wybierz „Update Flash Memory From a File" i naciśnij Enter. Po ujrzeniu za pytania wybierz nazwę obrazu BIOS-u, który ma zostać zapisany w pamięci Flash. Wybierz za pomocą klawisza Tab odpowiednią nazwę pliku i naciśnij Enter. 10. Na ekranie monitora pojawi się teraz komunikat ostrzeżenia, że kontynuowanie procesu aktualizacji BIOS-u spowoduje wymazanie wszystkich aktualnie znajdują cych się w pamięci Flash danych. Naciśnij Enter, by kontynuować uaktualnianie powinno potrwać około trzech minut. Nie przerywaj procesu uaktualniania, ponieważ jeśli to zrobisz, BIOS zawarty w pamięci Flash będzie uszkodzony. 11.Gdy stwierdzisz, że cały BIOS został przegrany do pamięci Flash, wyjmij dys kietkę startową ze stacji dysków i naciśnij Enter, by zrestartować komputer. 12.Naciśnij odpowiedni klawisz, by wejść do programu konfiguracyjnego (Setup). By upewnić się, że nowy BIOS jest już zainstalowany, w menu głównym (pierwszy ekran po wejściu) sprawdź numer wersji. 13.Wczytaj standardowe ustawienia w programie konfiguracyjnyrn. Jeśli posia dasz AMI BIOS, naciśnij F5; w BlOS-ie Phoenix przejdź do podmenu „Exit", wybierz „Load Setup Defaults"i naciśnij Enter. Jeśli tego nie zrobisz, system może działać niestabilnie. 14.Ustaw wcześniej zanotowaną konfigurację. Naciśnij F10, by zapisać zmiany, wyjdź z programu konfiguracyjnego i zrestartuj system. Od tej chwili kompu ter powinien być w pełni funkcjonalny i działać poprawnie z nową wersją BIOS-u. Jeśli po zrestartowaniu systemu napotkasz błąd sumy kontrolnej CMOS (CMOS checksum error) czy też inny problem, spróbuj jeszcze raz zrestartować komputer. By skorygować błąd sumy kontrolnej CMOS, musisz wejść do programu konfiguracyjnego, sprawdzić i zapisać ustawienia, a po wyjściu zrestarować komputer.
Odzyskanie BIOS-u Podczas przeprogramowywania pamięci Flash, powinieneś zobaczyć na ekranie komputera podobne do poniższego ostrzeżenie: "The BIOS is currently being updated. DO NOT REBOOT OR POWER DOWN until the update is completed (typically within three minutes)..." (Trwa uaktualnianie BIOS-u. NIE RESTARTUJ I NIE WYŁĄCZAJ KOMPUTERA przed zakończeniem procesu uaktualniania (zazwyczaj poniżej trzech minut)) Jeśli nie zwrócisz uwagi na to ostrzeżenie lub coś przerwie procedurę uaktualniania, staniesz się posiadaczem komputera o uszkodzonym BlOSie. Oznacza to, że nie będziesz mógł zrestartować komputera i powtórzyć procesu uaktualniania, a przynajmniej nie tak łatwo. Zależnie od płyty głównej, może się okazać, że musisz wymienić układ scalony pamięci Flash na wcześniej zaprogramowany przez producenta, ponieważ płyta główna nie będzie działać bez poprawnego BIOS-u. Dlatego właśnie nadal trzymam pod ręką programator pamięci Flash; jest on bardzo użyteczny przy płytach głównych posiadających kości pamięci Flash umieszczone w gniazdach. W ciągu kilku minut mogę zaprogramować kość pamięci i zainstalować ją na płycie głównej. Jeśli potrzebny ci jest programator ROM, polecam kupienie go w firmie Andromeda Research lub Bytek W większości obecnie produkowanych systemów pamięć Flash jest przylutowana do płyty głównej i nie może zostać wymieniona. Nie oznacza to jednak, że gdy podczas programowania wystąpi błąd, będzie należało wymienić całą płytę główną - większość płyt głównych z przylutowana pamięcią Flash posiada specjalną procedurę umożliwiającą odzyskanie pamięci Flash. Mieści się ona w specjalnym niewymazywalnym obszarze pamięci Flash, zarezerwowanym na tę właśnie ewentualność. W przypadku gdy dojdzie do nieoczekiwanego przerwania procesu aktualizacji BIOS-u, to, co znajduje się w pamięci Flash, najczęściej nie nadaje się już do niczego. Postępując zgodnie z poniższymi punktami można przywrócić normalny stan systemu. Podczas odzyskiwania BIOS-u, do płyty głównej musi być podłączone co najmniej zasilanie, stacja dysków ustawiona jako A: oraz głośniczek systemowy (speaker). 1. Przełącz zworkę „Flash Recovery" na pozycję trybu odzyskiwania. Praktycznie wszystkie płyty główne Intela i wiele płyt głównych innych producentów posiada zworkę lub przełącznik powodujący wejście w tryb odzyskiwania. Zworka jest najczęściej oznaczona jako „Recover/Normal". Na rysunku 7.26 została zaznaczona pozycja zworki na typowej płycie głównej Intel SE440BX. Rysunek 7.26. Zworka przełączająca w !r\b odz\skiwania na t\powej pł\cie głównej Intela
2. Umieść przygotowaną wcześniej dyskietkę z uaktualnionym BlOSem w stacji dysków A: i uruchom ponownie komputer. Ponieważ nieusuwalny obszar pamięci Flash jest bardzo niewielki, nie ma w nim zawartych procedur wyświetlania grafiki. Innymi słowy, nic nie pojawi się na ekranie. W rzeczywistości, do przeprowadzenia całej procedury nie jest nawet wymagana karta graficzna. Postęp procedury można zaobserwować na podstawie sygnałów dźwiękowych z głośniczka systemowego oraz diody stacji dysków. Podczas umieszczania w pamięci Flash BIOS-u. komputer wydaje sygnał) dźwiękowe i świeci się dioda stacji dysków. 3. Proces odzyskiwania powinien się zakończyć zaraz po zgaśnięciu diody stacji dysków. Wyłącz komputer. 4. Przełącz zworkę Flash Recovery na pozycję normalnej pracy. Po ponownym włączeniu systemu, w komputerze powinien już być zainstalowany nowy, w pełni działający BIOS. Możesz jednak pozostawić dyskietkę w stacji dysków A: i sprawdzić, czy na pewno została zainstalowana odpowiednia wersja BIOS-u. Warto zauważyć, że procedura odzyskiwania BIOS-u jest często najszybszym sposobem uaktualnienia BIOS-u w wielu komputerach, szczególnie jeśli w tej samej chwili przeprowadzasz wiele uaktualnień. Właśnie tak się to najczęściej odbywa u producenta lub przy montażu komputera. BIOS na party ej i l M L dysku twardego Firma IBM wprowadziła technikę podobną do flash ROM, zwaną IML (Initial Micro-code Load). Technika ta polega na zapisie kodu BIOS-u na specjalnej, ukrytej partycji dysku twardego i ładowaniu go z niej za każdym razem po włączeniu zasilania komputera. Oczywiście, na płycie głównej komputera nadal znajduje się ,,rdzeń" BIOS-u, jednak całe jego zadanie polega na zlokalizowaniu na dysku i załadowaniu kodu BIOS-u z partycji systemowej. Dzięki tej technice firma IBM może rozprowadzać wersje instalacyjne BIOS-u na dyskietce. IML BIOS jest ładowany z dysku każdorazowo po włączeniu zasilania komputera. Wraz z kodem BIOS-u, na partycji systemowej znajduje się kompletna kopia dyskietki systemowej (Reference Disk), która pozwala na uruchomienie programu konfiguracyjnego komputera w czasie restartu. Dzięki tej opcji nie jest konieczne startowanie komputera z dyskietki systemowej, kiedy chcemy zmienić konfigurację. Daje to wrażenie, że cała zawartość dyskietki systemowej rezyduje w pamięci ROM. Wadą tego rozwiązania jest umieszczenie kodu BIOS-u na twardym dysku (SCSI). Komputer nie może poprawnie funkcjonować bez przyłączonego i odpowiednio skonfigurowanego dysku twardego. W razie awarii czy odłączenia dysku zawsze jest możliwe wystartowanie komputera z oryginalnej dyskietki, nie można jednak wystartować systemu ze zwyczajnej dyskietki.
Zasilacze Zasilacz jest elementem o krytycznym znaczeniu dla pracy komputera. Jego zadaniem jest dostarczanie energii wszystkim elementom komputera. Z moich doświadczeń wynika, że zasilacze należą do podzespołów najbardziej podatnych na awarię. Wiedza o działaniu i ograniczeniach zasilacza, a także o potencjalnych problemach z jego użytkowaniem jest potrzebna, ze względu na jego istotne znaczenie.
Rola zasilacza w komputerze i jego działanie Podstawowym zadaniem zasilacza jest zamiana napięcia elektrycznego dostępnego w gniazdku na napięcie, które jest odpowiednie dla układów elektronicznych komputera. Zasilacz typowego komputera PC zamienia napięcie zmienne o wartości 220 V (w USA 110 V) i częstotliwości 50 Hz (USA - 60 Hz) na napięcie, które może być wykorzystane przez komputer, czyli +5 V oraz +12 V, a w niektórych komputerach także +3,3 V. Układy elektroniczne w komputerze (płyta główna, karty rozszerzające, elektronika dysków) wymagają zazwyczaj napięcia o wartości +3,3 lub +5 V, podczas gdy elementy ruchome (silniki w napędach dysków i wentylatorach) wymagają napięcia +12 V. Aby komputer mógł poprawnie pracować, napięcie dostarczane przez zasilacz musi mieć stały poziom. Jeżeli zajrzymy do danych technicznych typowego zasilacza PC, to przekonamy się, że dostarczane są nie tylko napięcia +3,3 V, +5 V i +12 V, lecz również -5 V i -12 V. Jak już stwierdziłem, napięcia +5 V i +12 V zasilają wszystkie elementy komputera (układy elektroniczne i silniki), do czego służą więc dodatkowe napięcia ujemne? Zazwyczaj nie są one do niczego potrzebne. Napięcia te w większości współczesnych komputerów nie są wykorzystywane, jednak pozostawiono je dla zachowania kompatybilności ze starszymi systemami. Ponieważ napięcie +3,3 V jest stosunkowo nowym dodatkiem, nie uwzględniono napięć -3,3 V.
Kiedy Intel rozpoczął produkcję procesorów wykorzystujących zasilanie 3,3 V, nie produkowano jeszcze zasilaczy komputerowych dostarczających takiego poziomu napięcia. Powstało więc inne rozwiązanie polegające na wbudowywaniu w płytę główną regulatorów napięć, obcinających napięcie 5 V do żądanej wartości. Napięcia -5 V i -12 V są dostarczane na płytę główną, jednak sama płyta wykorzystuje tylko napięcie +5 V. Sygnał -5 V jest skierowany do końcówki B5 magistrali ISA i poza tym nie ma żadnego zastosowania. Pierwotnie sygnał ten był wykorzystywany przez analogowe separatory (bufory) danych, znajdujące się w starszych kontrolerach stacji dyskietek, dlatego został wyprowadzony na magistralę. Współczesne kontrolery nie potrzebują napięcia -5 V. dlatego sygnał ten nie ma już żadnego zastosowania, jednak wciąż stanowi część standardu magistrali ISA i stąd jego obecność w komputerze. Napięcie -5 V nie występuje w komputerach z magistralą MCA (Micro Channel Architecture). Sygnał -5 V nie był nigdy potrzebny, ponieważ komputery z magistralą MCA od zawsze współpracowały z nowszymi typami kontrolerów stacji dyskietek. Również sygnały +12 V, jak i -12 V nie są wykorzystywane przez płytę główną, natomiast są skierowane odpowiednio do końcówek B9 i B7 magistrali ISA. Napięcia te mogą być wykorzystywane przez każdą kartę rozszerzającą podpiętą do magistrali, najczęściej jednak są używane przez układy nadajnika/odbiornika portu szeregowego. Jeżeli na płycie głównej znajdują się wbudowane porty szeregowe, to napięcia +12 V i 12 V mogą być niekiedy wykorzystywane przez te porty. Obciążenie źródeł +12 V i -12 V, wnoszone przez porty szeregowe, jest bardzo małe. Np. karta PS/2 Dual Async pobiera na potrzeby swoich portów jedynie 35 mA ze źródła +12 V i 35 mA ze źródła -12 V (0,035 ampera z każdego źródła). W większości nowszych portów szeregowych nie stosuje się już układów nadajnika/ odbiornika pracujących z napięciem 12 V, lecz układy zasilane napięciem +5 V. a nawet +3,3 V. Jeżeli tego typu porty znajdują się w komputerze, to sygnał -12 V napięcia zasilania prawdopodobnie nie jest w ogóle wykorzystany. Głównym zadaniem napięcia +12 V jest zasilanie silników napędów dyskowych. Źródło to ma zazwyczaj dużą wydajność prądową, zwłaszcza w komputerach z dużą ilością wnęk na napędy dyskowe, takich jak np. konfiguracja typu tower. Oprócz tego, napięcie + 12 V jest używane przez wentylatory, które powinny oczywiście stale być włączone. Pojedynczy wentylator może pobierać od 100 do 200 mA (0,1 do 0,25 ampera), jednak większość nowszych wentylatorów pobiera poniżej 100 mA. Pamiętajmy, że duża część wentylatorów w komputerach biurkowych (desktop systems) pracuje z napięciem +12 V, natomiast w komputerach przenośnych większość wentylatorów wykorzystuje napięcie +5 V lub +3,3 V. Oprócz dostarczania komputerowi napięcia zasilającego, zasilacz zapewnia również, że komputer nie zacznie pracować, dopóki nie będzie miał zapewnionego odpowiednio ustabilizowanego napięcia zasilania. Inaczej mówiąc, zasilacz zabezpiecza komputer przed rozpoczęciem działania wcześniej, niż wszystkie napięcia osiągną odpowiedni poziom.
Przed zezwoleniem komputerowi na wystartowanie, każdy zasilacz przeprowadza swój wewnętrzny test. Zasilacz jest połączony z płytą główną za pomocą linii sygnałowej PowerjGood. Jeżeli na tej linii nie ma odpowiedniego poziomu sygnału, to komputer nie będzie pracował. W rezultacie, jeżeli napięcie w sieci spada, a zasilacz staje się zbyt obciążony albo za bardzo się grzeje, sygnał Po\ver_Good zanika i zmusza tym samym komputer do zresetowania się albo całkowitego wyłączenia. Jeżeli komputer sprawiał kiedyś wrażenie ,,martwego", a włącznik zasilania był włączony i pracował twardy dysk, to był to najprawdopodobniej skutek zaniku sygnału PowerjGood. Według „konserwatywnej" koncepcji przyjętej przez firmę IBM, jeżeli napięcie w sieci spada poniżej pewnego poziomu lub zasilacz jest zbytnio obciążony albo za mocno się grzeje, co powoduje wahania napięcia wyjściowego zasilacza, komputer nie powinien w ogóle pracować.
Możliwe jest nawet wykorzystanie tej cechy do zaimplementowania przycisku reset w komputerze PC, Linia Power_Good jest połączona z układem generującym sygnał zegarowy (w oryginalnych komputerach PC/XT i AT był to układ 8284 albo 82284), który kontroluje stan linii zegarowej i linii reset podłączonych do mikroprocesora. Kiedy za pomocą przycisku zewrzemy linię Power_Good do masy, układ zegarowy i pokrewne układy zatrzymają procesor poprzez wstrzymanie generacji sygnału zegarowego, a kiedy sygnał Power_Good pojawi się w wyniku puszczenia przycisku, układy te spowodują reset komputera. W rezultacie w komputerze zostanie przeprowadzona sprzętowa operacja reset. W dalszej części rozdziału opiszę, w jaki sposób można samodzielnie wykonać przycisk reset w komputerze, w którym takiego przycisku brak. W nowszych komputerach z płytą główną w formacie ATX albo LPX znajduje się specjalny sygnał PS_ON, który może służyć do wyłączenia zasilania (a przez to również wyłączenia komputera) w sposób programowy (ang. soft-offfealure). Najprościej można się o tym przekonać wybierając w systemie Windows 95 opcję .,wyłączenie komputera". Jeżeli zasilacz posiada opcję sofl-off, to system Windows 95 zamiast wyświetlać komunikat informujący, że można bezpiecznie wyłączyć komputer, sam wyłączy komputer. Standardowe rodzaje zasilaczy Kształt i rozmieszczenie komponentów komputera jest określane w języku angielskim mianem fo nn facto r (dosl. czynnik kształtu). Podzespoły należące do różnych standardów nie mogą być stosowane zamiennie. W fazie projektowania komputera projektanci mogą zdecydować się na wybór jednego z popularnych standardowych formatów albo opracować własny format. Wybór jednego z istniejących już formatów oznacza dostęp
Rozbudowa i naprawa komputerów PC do niewyczerpanego wręcz źródła części zamiennych do zasilaczy, różnej jakości i dla różnych poziomów napięcia zasilającego. Wybór rozwiązania firmowego oznacza, że w komputerze może być niepowtarzalny model zasilacza, który będzie dostępny tylko u jego producenta. W takim przypadku wybór będzie ograniczony tylko do modeli określonego producenta. Jestem zdecydowanym zwolennikiem wyboru zasilacza standardowego. Gdy powstawały pierwsze komputery PC, dominujące firmy -jak IBM wprowadzały coraz to nowe standardy, nie pozwalając żadnemu z nich się upowszechnić. Stało się to jednak tak kłopotliwe i niepraktyczne, że gdy inni producenci zaczęli klonować oryginalne komputery IBM, wprowadziły pewne standardy, które w wielu wypadkach obowiązują do dziś. Z technicznego punktu widzenia, zasilacz komputerowy to nic innego, jak stabilizowany pólmostkowy impulsowy uklad transformujący napięcie. Stabilizowany oznacza, że na wyjściach zasilacza, niezależnie od napięcia zasilającego, poboru mocy czy przepływu prądów, pojawiać się będzie zawsze to samo napięcie. Pólmostkowy odnosi się do wewnętrznej budowy układu prostującego. W porównaniu do innych rodzajów zasilaczy, wydziela on minimalne ilości energii cieplnej, zapewniając jednocześnie efektywną pracę oraz zachowuje małe rozmiary i niską cenę - zaleta zasilaczy impulsowych. Pomimo iż dwa zasilacze wyglądają tak samo, a także należą do tego samego standardu, mogą się między sobą istotnie różnić pod względem budowy wewnętrznej. A to będzie decydowało o jakości zasilacza oraz o jego efektywności. W dalszej części tego rozdziału przedstawię kilka charakterystycznych wielkości opisujących zasilacz - na które należy zwrócić uwagę przy jego zakupie. Format zasilacza łączy się z formatem obudowy komputera. Do standardu (ang. industry standard) można obecnie zaliczyć osiem popularnych typów obudów i zasilaczy: PC/XT
LPX
AT/Desk
ATK
AT/rower
NLX
Baby AT
SFX
Każdy z tych zasilaczy jest dostępny w różnych konfiguracjach, dla różnych poziomów napięcia wyjściowego. Spośród standardowych typów zasilaczy we współczesnych komputerach najczęściej spotyka się zasilacze typu Slim i ATX; NLX oraz SFX są to rozwiązania nowe, dopiero torujące sobie drogę na rynku komputerów PC. Zasilacze PC/XT W komputerze IBM XT zastosowano ten sam prosty zasilacz, co w komputerze IBM PC, jednak nowy zasilacz miał ponad dwa razy większą wydajność prądową, (zob. rysunek 8.1). Zasilacze te były identyczne pod względem kształtu i zastosowanych wtyczek, dlatego możliwa była zamiana zasilacza PC na lepszy zasilacz XT. Z powodu olbrzymiej popularności, jaką zdobyły komputery PC i XT, producenci sprzętu komputerowego zaczęli wytwarzać komputery, które naśladowały
ich kształt i wygląd. W komputerach tych. tzw. klonach, można było wymieniać praktycznie wszystkie podzespoły z oryginalnymi komputerami IBM, w tym także zasilacz. Od tamtej pory podzespoły do komputerów PC zaczęło produkować wielu wytwórców i prawie wszystkie z nich były zgodne z formatem jednego z komputerów firmy IBM. Rysunek 8.1. Zasilać: w formacie PC XT
Zasilacze AT/Desktop Komputer IBM AT w wersji biurkowej, który pojawił się w późniejszym okresie, miał większy zasilacz i o innym formacie niż zasilacz PC/XT. Komputer IBM/AT był również intensywnie „klonowany", a jego konstrukcja do dnia dzisiejszego stanowi „bazę" większości komputerów PC. Zasilacz AT/Desktop (ang. AT/Desktop syle power supply) jest przedstawiony na rysunku 8.2. Obecnie setki producentów produkują płyty główne, zasilacze, obudowy itp.. które są fizycznie kompatybilne z podzespołami oryginalnego komputera IBM AT. Zasilacze AT/Tower Na rynku komputerów kompatybilnych z IBM AT pojawiło się kilka „wariacji na temat" AT, które są popularne do dziś. Oprócz standardowych zasilaczy AT/Desktop, można spotkać zasilacze typu AT/Tower. Komputer w obudowie AT/Tower to nic innego jakkomputer AT w normalnej obudowie typu desktop obrócony na bok. Zasilacz i płyta główna w komputerach typu Tower i Desktop mają praktycznie takie same wymiary i kształt. Konfiguracja Tower (wieża) nie była bynajmniej pomysłem nowatorskim -firma IBM w oryginalnym komputerze AT umieściła na obudowie swoje logo, które mogło być obrócone o 90 stopni w przypadku gdy komputer był odwrócony na bok i pracował w konfiguracji typu Tower. Typ zasilacza zastosowanego w komputerze typu Tower jest praktycznie taki sarn jak w komputerze Desktop, inna jest tylko lokalizacja zasilacza w obudowie. W większości komputerów AT/Desktop włącznik zasilania musiał być umieszczony na samym zasilaczu, natomiast w przypadku komputerów AT/Tower zastosowano zewnętrzny włącznik, połączony z zasilaczem krótkim, czterożyłowym przewodem. Normalny zasilacz AT z zewnętrznym
włącznikiem (ang. AT'Tower form-factor supply ) jest pokazany na rysunku 8.3. Zasilacze Baby-AT Innym formatem obudowy i zasilacza komputera AT jest format BabyAT. Obudowa Baby-AT jest po prostu krótszą wersją obudowy AT. Zasilacz w komputerach Baby-AT jest węższy, spełnia jednak pozostałe parametry zasilacza AT. Zasilacz Baby-AT może być wykorzystany zarówno w komputerach z płytą główną (i obudową) w formacie BabyAT. jak i w dużym formacie AT, natomiast zasilacz w formacie AT/Tower nie będzie pasował do komputera Baby-AT (zob. rysunek 8.4). Rysunek 8.3. Zasilacz ir formacie AT roi i w
Zasilacze w formacie LPX Następnym spotykanym formatem zasilacza jest format LPX, zwany również Slim, Slimline lub Low Profile (LPX), co dosłownie oznacza „szczupły" (zob. rysunek 8.5). W komputerach w formacie LPX karty rozszerzające są wkładane w gniazda specjalnej karty rozszerzającej magistralę (ang. riser card), która tkwi w gnieździe płyty głównej. Karty rozszerzające są więc w pozycji równoległej w stosunku do płyty głównej. Obudowa komputera LPX charakteryzuje się niedużą wysokością, stąd pochodzi nazwa slim. Dla komputerów LPX został opracowany specjalny format zasilacza, który umożliwia wymianę zasilaczy pomiędzy różnymi komputerami. Pojawiły się jednak pewne problemy z wymianą płyt głównych pomiędzy komputerami LPX związane z owym rozszerzeniem magistrali, natomiast sam zasilacz LPX stał się standardem. Zasilacze ATX "Nowym standardem budowy komputerówjest format ATX (zob. rysunek 8.6). Standard ATX obejmuje nowy kształt płyty głównej, a także obudowy i zasilacza. Zasilacz ATX wywodzi się z zasilaczy Low Profile, różni się jednak od nich pod kilkoma względami. o czym warto wspomnieć.
Jedną z różnic jest umieszczenie wentylatora wzdłuż wewnętrznej ściany zasilacza, dzięki czemu powietrze jest rozprowadzane w poprzek płyty głównej i wydmuchiwane na zewnątrz z tyłu obudowy. Przepływ powietrza ma odwrotny kierunek niż w standardowychzasilaczach, w których wentylator umieszczony z tyłu wydmuchuje powietrze poza tylną część zasilacza. Odwrotnie skierowany strumień powietrza w komputerach ATX wymusza przepływ powietrza nad najgorętszymi podzespołami płyty głównej: procesorem, modułami SIMM i gniazdami rozszerzającymi. Dzięki temu wyeliminowano konieczność stosowania dodatkowego wentylatora chłodzącego procesor, który sprawia ciągłe problemy i jest obecnie, niestety, dość rozpowszechniony. Inną zaletą odwrotnego strumienia powietrza jest utrzymanie czystości wewnątrz komputera. Powietrze, napierając na obudowę, wydostaje się przez szpary na zewnątrz -odwrotnie niż w rozwiązaniach tradycyjnych. Na przykład dymiący papieros w pobliżu stacji dyskietek w tradycyjnym komputerze może spowodować, że dym dostanie się do wnętrza napędu i zabrudzi głowicę. W komputerze ATX z odwróconym strumieniem powietrza dym papierosowy zostałby usunięty poza napęd, ponieważ jedynym „pochłaniaczem" powietrza w komputerze jest pojedynczy wentylator zasilacza z tyłu obudowy. Użytkownicy komputerów pracujących w zakurzonym pomieszczeniu powinni umieścić na otworze wlotowym powietrza dodatkowy filtr, który w jeszcze większym stopniu zabezpieczy komputer przed kurzem i brudem.
Rysunek 8.5. Zasilać- w formacie Slimline Low Profile (LPX)
Choć jest to teoretycznie najlepsza metoda na wentylację systemu, prawidłowo zbudowany system chłodzenia wymagałby wentylatorów o większej mocy. Wbudowany filtr wymagałby też częstej obsługi czyszczenia. A sam zasilacz - obciążony większym prądem produkowałby więcej ciepła - przez co powietrze chłodzące procesor już byłoby wstępnie ogrzane przez sam zasilacz. Tak więc najlepszym rozwiązaniem pozostaje nadal - wbrew założeniom ATX wydmuchiwanie powietrza z obudowy, przy jednoczesnej dobrej wentylacji procesora. Stąd nowsze specyfikacje ATX dopuszczają ten rodzaj wentylacji. Format ATX został opracowany przez firmę Intel w roku 1995, jednak popularność zyskał dopiero w roku 1996 w nowych komputerach z procesorem Pentium Pro. Format ATX jest rezultatem próby rozwiązania wielu problemów związanych z formatami Ba-by-AT czy LPX. W odniesieniu do zasilacza pojawiają się dwa zasadnicze problemy. Po pierwsze, tradycyjny zasilacz PC łączy się z płytą główną dwiema wtyczkami. Jeżeli podłączymy którąś z nich odwrotnie albo zamienimy wtyczki miejscami, to płyta główna ulegnie zniszczeniu! Większość odpowiedzialnych producentów płyt głównych i zasilaczy wyposaża swoje produkty w gniazdka i wtyczki o odpowiednich kształtach, które uniemożliwiają odwrotne wożenie wtyczki. Wielu producentów tańszych komputerów nie stosuje jednak takich zabezpieczeń. Aby ustrzec przed nieszczęściem tych użytkowników, którzy odwrotnie włożyliby wtyczki, płytę główną ATX wyposażono w złącze zasilania nowego typu. Nowe złącze3,3 V, co eliminuje konieczność stosowania dodatkowych modulatorów napięcia na płycie głównej, zasilających procesor i inne układy pracujące z napięciem 3,3 V. W przyszłości wiele komputerów będzie wymagało obecności tego napięcia. Oprócz nowego źródła 3,3 V w zasilaczu ATX wyprowadzono jeszcze dwa dodatkowe sygnały, których nie znajdziemy w standardowym zasilaczu. Są to sygnały Po\ver_ON i 5V_Standby, określane także zbiorową nazwą Sqft_Power. Power_On jest sygnałem płyty głównej, który może być wykorzystany w systemach Windows 95 czy Windows "NT. Sygnał ten umożliwia programowe wyłączenie komputera.
Opcjonalnie możliwe jest również wykorzystanie klawiatury do ponownego włączenia komputera, tak jak w komputerach Apple Macintosh. Sygnał 5V_Standby pozostaje zawsze aktywny, dostarczając płycie głównej minimalnego napięcia nawet wówczas, kiedy komputer jest wyłączony. Kolejnym problemem rozwiązanym w formacie ATX jest takie rozmieszczenie elementów, aby procesor pozostał chłodny, co było bolączką poprzednich konstrukcji. Takie rozwiązanie działa jednak z reguły tylko w konstrukcjach przemysłowych, w których został zastosowany prawidłowo dobrany do obciążenia zasilacz i które zwykle są regularnie konserwowane. Większość szybkich systemów Pentium i Pentium Pro wykorzystuje radia-tor nałożony na procesor, połączony z odpowiednim wentylatorem odprowadzającym ciepłe powietrze. Intel i inni producenci zaczęli fabrycznie montować wentylatory na procesorach - niektóre z wentylatorów są na stałe zamontowane na procesorze. Aby osiągnąć najlepsze rezultaty, powinieneś używać jedynie wentylatorów renomowanych producentów, ponieważ wbrew pozorom, wentylator na procesorze może być jednym z najbardziej krytycznych elementów odpowiadających za stabilną pracę systemu. Opisywana tu metoda chłodzenia jest zalecana przez specyfikację ATX, nie jest jednak ściśle wymagana. W systemach z płyta, główną ATX producenci mogą stosować także inne rozwiązania, takie jak wentylator w obudowie odprowadzający ciepłe powietrze i wymuszający ruch powietrza, a także aktywne lub pasywne radiatory. Takie rozwiązanie może być lepsze w nieprzemysłowych konstrukcjach, w których nie jest zapewniona regularna konserwacja i precyzyjnie dobrana moc zasilacza. Istnieje możliwość zamiany standardowego zasilacza obudowy Baby AT lub LPX na zasilacz ATX; wymaga to dodania sygnałów PS_ON i 5VSB, a także zasilania 3,3 V. Jeśli planujesz zakup systemu z płytą główną ATX, nie zakładaj automatycznie, że na pewno otrzymasz zasilacz ATX. Jeśli sprzedawca nie będzie potrafił odpowiedzieć na tego typu techniczne pytania, lepiej poszukaj innego. Standard N LX Specyfikacja NLX, także opracowana przez firmę Intel, definiuje niskoprofilową obudowę i płytę główną posiadającą większość właściwości płyty ATX. Płyty NLX są jednak nieco mniejsze. Tak jak w opisywanych poprzednio systemach LPX, płyty NLX korzystają ze specjalnej płytki przeznaczonej do instalowania kart rozszerzeń. Płyta NLX została zaprojektowana także w celu uproszczenia instalacji i obsługi; aby wyjąć płytę z obudowy, wystarczy zwolnić pojedynczy zaczep. Podobnie jak architektura ATX funkcjonalnie zastąpiła rozwiązania Baby AT w pełnowymiarowych systemach typu desktop i tower, tak NLX została opracowana, aby zastąpić architekturę LPX. Specyfikacja NLX nie definiuje nowego układu zasilania, jednak osobne zalecenia co do zasilania NLX rekomendują zastosowanie dodatkowych właściwości. Aby móc zmieścić ten układ w obudowie NLX, należy zastosować zasilacz podobny wymiarowo do zasilacza LPX, ale wykorzystujący to samo 20-stykowe złącze i ten sam rozkład sygnałów, co wtyk zasilania ATX. Choć istnieje możliwość modyfikacji zasilacza LPX, aby spełniał te wymagania, to pewni producenci opracowali zasilacze przeznaczone specjalnie dla architektury NLX, Systemy NLX są przeznaczone raczej dla dużych firm, w których konserwacja i opieka nad sprzętem wygląda zupełnie inaczej niż w
przypadku zastosowań domowych. Zastosowanie standardu NLX oznacza rezygnację z pewnych korzyści oferowanych przez architekturę ATX, jednak decyduje się na to wielu producentów, gdyż korzyści standardu ATX równoważy niższa cena, mniejsze wymiary i większa łatwość obsługi systemów NLX. Styl SFX (płyty główne microATX) Intel opracował trzecią nową specyfikację płyty głównej, noszącą nazwę microATX, przeznaczoną dla najtańszych systemów, o jeszcze mniejszych wymiarach niż NLX i niższych wymaganiach co do pobieranej mocy. Ponieważ dokumentacja microATX definiuje jedynie format płyty głównej, Intel opracował także specyfikację nowego zasilacza o formacie SFX (rysunek 8.7). Zasilacz SFX jest specjalnie zaprojektowany dla małych systemów zawierających niewielką ilość dodatkowych urządzeń. Zasilacz może zapewnić 90 watów (szczytowo 135 watów) i cztery napięcia (+5, +12, 12 i +3,3 V). Taka moc w zupełności wystarcza do zasilania małego systemu z procesorem Pentium II, interfejsem AGP, trzema gniazdami rozszerzeń i trzema urządzeniami zewnętrznymi, takimi jak twarde dyski i napędy CD-ROM. Zasilacz SFX nie daje napięcia -5 V, wymaganego dla pełnej zgodności ze standardem magistrali ISA. Systemy microATX są przeznaczone do używania kart PCI lub AGP, z całkowitym pominięciem kart ISA. Choć Intel przeznaczył zasilacz SFX do wykorzystania z płytami głównymi microATX, to SFX jest w pełni niezależnym standardem zgodnym również z innymi płytami głównymi. Zasilacz SFX posiada to samo 20-stykowe złącze co zasilacz ATX i zawiera oba sygnały: Power_On i 5V_Standby. Inne jest jednak ułożenie wentylatora. Aby móc zastosować taki zasilacz w obudowie ATX, trzeba nieco zmodyfikować jego metalową obudowę. W zasilaczach SFX wentylator znajduje się na powierzchni obudowy, skierowany do wnętrza obudowy komputera. Wentylator zasysa powietrze z wnętrza systemu i wypycha je poprzez otwory wentylacyjne w tylnej części obudowy. Takie umieszczenie wentylatora powoduje zmniejszenie hałasu, ale oznacza także powrót do obiegu powietrza w starszych rozwiązaniach, w których powietrze do wnętrza komputera dostawało się poprzez szczeliny między dyskami i inne otwory.
Złącza rozprowadzające zasilanie w komputerze W tabeli 8.1 zebrano znaczenie końcówek złącz zasilających w większości standardowych komputerów AT i PC/XT. W niektórych komputerach można spotkać mniej lub więcej wtyczek zasilania napędów dyskowych. Np. zasilacze IBM AT mają tylko trzy takie wtyczki, natomiast większość spośród popularnych obecnie zasilaczy AT/Tower ma ich cztery. Płyty główne wykorzystujące złącza P8 oraz P9 należy podłączać tak, aby czarne kable w obu wtyczkach leżały obok siebie. Ponieważ prawie niemożliwe jest umieszczenie wtyczek obróconych o 180 stopni, jedyne problemy może sprawić właściwa kolejność tych wtyczek. Zasada „czarne do czarnego" pozwoli się przed nimi skutecznie ustrzec. Przy wkładaniu tych wtyczek należy zwrócić uwagę na jeszcze jeden istotny
fakt - żeby wtyczki pokrywały dokładnie gniazda, to znaczy, żeby żaden styk nie został wolny. Jeżeli dodajemy w komputerze napęd dyskowy i potrzebne nam jest dodatkowe złącze, to w wielu sklepach z częściami elektronicznymi możemy dokupić rozgałęzienie w kształcie litery „y" i wykorzystać pojedyncze złącze do zasilania dwóch napędów. Bezpiecznie jednak jest się upewnić, że wydajność prądowa naszego zasilacza pozwoli na dołączenie dodatkowego napędu. Tabela 8.1. Opis końcówek złącz zasilających PC/XT i AT Typ wtyczki i numer końcówki P8-1 P8-2 P8-3 P8-4 P8-1 P8-2 P9-3 P9-4 P9-1 P9-2 P9-3 P9-4 P10-1 P10-2 P10-3 P 10-4
Sygnał we wtyczce AT
Sygnał we wtyczce PC/XT
Power_Good (+5 V) +5 V + 12V -12V Masa (0) Masa (0) Masa (0) Masa (0) -5 V +5 V +5 V +5 V + 12 V Masa (0) Masa (0) +5 V
Power_Good (+5 V) Klucz (nie podłączone) + 12 V -12V Masa (0) Masa (0) Masa (0) Masa (0) -5V +5 V +5 V +5 V + 12 V Masa (0) Masa (0) +5 V cd. na następnej stronie
Tabela 8.1. cd. Opis końcówek zlącz zasilających PC/XT i AT Typ wtyczki i numer końcówki Pll-1 Pll-2 Pll-3 Pll-4 P12-1 P12-2 P12-3 P 12-4 P13-1 P13-2 P13-3 P 13-4
Sygnał wtyczce AT PC/XT + 12V Masa (0) Masa (0) +5 V + 12V Masa (0) Masa (0) +5V + 12 V Masa (0) Masa (0) +5 V
Sygnał we we wtyczce +12V Masa (0) Masa (0)
Zasilacze Baby-AT i Slimline mają rozkład końcówek taki jak zasilacze AT/Desktop czy Tower. Ze wszystkich standardowych typów zasilaczy inną wtyczkę przewiduje jedynie standard Molex 39-29-3902. Po raz pierwszy użyty w obudowach ATX, w tej chwili zdobywa uznanie i jest rozpowszechniany także w obudowach NLX oraz SFX. Znaczenie 20 końcówek tego złącza zasilania (z kluczem) przedstawia tabela 8.2. Tabela 8.2. Opis końcówek wtyczki zasilaczy ATX Sygnał 3,3 V* -12 V GND P\vr_On GND GND GND -5 V 5V 5V
Końcówka 11 12 13 14 15 16 17 18 19 20
Końcówka 1 -> 3 4 5 6 7 8 9 10
Sygnał 3,3 V* 3,3 V* GND 5V GND 5V GND Po\ver_Good 5V_Standby 12 V
= sygnal opcjonalny W zasilaczach ATX znajduje się kilka sygnałów nieobecnych w poprzednich zasilaczach: jak 3,3 V, PowerJDn i 5V_Standby. Z tego powodu trudno będzie przystosować standardowy zasilacz formatu Slimline czy Low Profile do pracy w komputerze ATX, chociaż fizyczne rozmiary i kształty zasilaczy są w zasadzie jednakowe. Choć w zasilaczach PC/XT na końcówce P8-2 nie ma żadnego sygnału, to jednak zasilacze te można wykorzystywać w komputerach z płytą główną AT, jak również na odwrót - zasilacze AT mogą współpracować z płytą PC/XT. Obecność albo brak sygnału +5 V na końcówce P8 nie ma praktycznie żadnego wpływu na pracę komputera. Jeżeli testując zasilacz
mierzymy napięcie zasilania, to można zaakceptować każdą wartość w zakresie 10-procentowego marginesu nominalnej wartości napięcia zasilającego, choć większość producentów zasilaczy wysokiej jakości określa tolerancję napięcia wyjściowego w granicach 5 procent, co już nie jest tak łatwe do osiągnięcia.
Nominaln a wartość napięcia +/-5 V +/-
Wartość minimalna napięcia (większa tolerancja 10%) 4,5 V 10,8V
Wartość maksymalna napięcia (mniejsza tolerancja 8%) 5,4 V 12,9 V
Wartość minimalna napięcia (tolerancja 5%)
Wartość maksymalna napięcia (tolerancja 5%)
4,75 V 11,4V
5,25 V
Tolerancja dla sygnału Power_Good jest inna niż dla pozostałych sygnałów, chociaż w większości komputerów wartość tego sygnału wynosi +5 V. Poziom detekcji sygnału Power_Good jest równy +2,5 V, jednak większość komputerów akceptuje jego zmiany w zakresie od 3 V do 6 V. Jeżeli poziomy napięć wyjściowych nie mieszczą się w powyższych granicach, to należy wymienić zasilacz. Opcjonalne złącze zasilania ATX Oprócz głównego 20-stykowego złącza zasilania, specyfikacja ATX definiuje opcjonalne sześciostykowe złącze (dwa rzędy po trzy styki), używające kabla 22 AWG w celu dostarczenia sygnałów opisanych w tabeli 8.3. Komputer może użyć tych sygnałów do monitorowania i sterowania wentylatorem, monitorowania poziomu napięcia sygnału +3,3 V dla płyty głównej oraz zapewnienia zasilania i masy urządzeniom zgodnym ze standardem IEEE 1394 (FireWire). Sygnał FanM umożliwia systemowi operacyjnemu monitorowanie stanu wentylatora w zasilaczu i podjęcie odpowiednich czynności w razie jego awarii, na przykład zamknięcia systemu. System operacyjny może użyć sygnału FanC stosując różne napięcia w celu sterowania pracą wentylatora w zasilaczu, zwalniając jego obroty lub całkowicie go wyłączając, gdy system przechodzi do stanu uśpienia lub trybu standby. Standard ATX określa, że
Ze względu na stałą obecność napięcia 5 V, niezależnego od włączenia komputera (zależnego jedynie od podłączenia komputera do sieci 220 V), istotne jest wyłączenie komputera za pomocą wtyczki - a nie tylko przy pomocy włącznika zasilania - przy jakichkolwiek pracach. W starszych systemach włącznik odcinał zasilanie. W nowych -jedynie informuje zasilacz, czy ma się włączyć, czy nie. Wyprowadzenie zasilania dysków Wtyczki rozprowadzające napięcie dla dysków są dość uniwersalne, jeżeli chodzi o rozmieszczenie końcówek i kolor przewodów. Tabela 8.4 przedstawia rozmieszczenie końcówek i kolory przewodów standardowej wtyczki zasilania dysku. Tabela 8.4. Rozmieszczenie końcówek gniazdu zasilającego dyski Końcówka 1 2 3 4
Kolor przewodu Żółty Czarny Czarny Czerwony
Sygnał + 12 V Masa Masa +5 V
Powyższe informacje odnoszą się do złącz typu Molex (zasilanie twardych dysków i CD-ROM-ów) ora/, mniejszych wtyczek zasilania stacji dysków 3 l/2 cala. Dla każdej z tych wtyczek znaczenie poszczególnych końcówek i kolor przewodów są takie same. Aby ustalić położenie końcówki nr l, należy dokładnie się przyjrzeć napisom na plastikowej obudowie wtyczki. Napisy te są jednak często małe i nieczytelne. Na szczęście wtyczka ma kształt, który utrudnia jej nieprawidłowe włożenie. Rysunek 8.9 przedstawia numery końcówek oraz kształt wtyczki zasilania dysku twardego, uniemożliwiający nieprawidłowe włożenie wtyczki.Pamiętajmy, że niektóre typy złącz zasilających dysków mają doprowadzone tylko dwa przewody: zazwyczaj +5 V i pojedynczy przewód masy (końcówki 3 i 4), ponieważ w większości współczesnych komputerów stacje dysków wykorzystują napięcie +5 V, a z napięcia +12 V nie korzystają wcale.
Oznaczenia wtyczek zasilania dysków Wtyczki stosowane w zasilaczach klonów PC pochodzą od oryginalnego złącza firmy IBM stosowanego w zasilaczach komputerów PC/XT/AT. W komputerach tych stosowano inne złącza pomiędzy zasilaczem a płytą główną (złącza P8 i P9) i inne złącza zasilania dysków. Wtyczki zasilania płyty głównej, stosowane we wszystkich standardowych zasilaczach, nie zmieniły się od roku 1981, czyli od czasu kiedy pojawił się komputer IBM PC. Wraz z pojawieniem się stacji dyskietek w roku 1986, pojawiły się również nowe wtyczki zasilania. Typy standardowych złącz zasilania płyt głównych i dysków zebrano w tabeli 8.5. Tabela 8.5. Typy zfącz rozprowadzających zasilanie Strona męska (od Strona żeńska (od Opis złącza strony urządzenia) strony zasilacza)
ATX/NLX/SFX (20stykowc) ATX opcja (6 styków) Złącze płyty głównej P8/P9 Duże złącze zasilania dysku
Molex 39-299202 Molex 390 1-2960 BurndyGTC6P -l AMP 1-
Molex 39-0 12200 Molex 3930- 1060 BurndyGTC6 RI AMP 1-
Wtyczki te są dostępne w sklepach z częściami elektronicznymi (Allied, Newark, Digi-Key - w USA), które można znaleźć na końcu książki. Kompletne kable wraz z wtyczkami, w tym małe i duże złącza napędów dysków, rozgałęzienia w kształcie litery „Y" oraz dodatkowe kable zasilania płyt głównych, można dostać w sklepach z kablami, wtyczkami i podobnymi akcesoriami (Cables To Go, thc Cale Connection, Ci Design i Key Power -w USA). Sygnał Power Good Sygnał Power_Good jest sygnałem o poziomie napięcia +5 V (zasadniczo akceptowane są napięcia od +3,0 V do +6.0 V). który jest generowany przez zasilacz po przeprowadzeniu wewnętrznego, o ile napięcie wyjściowe zasilacza ma odpowiedni poziom. Zazwyczaj zajmuje to od 0,1 do 0,5 sekundy po włączeniu komputera. Sygnał Power_Good jest przesyłany układowi czasowemu na płycie głównej, który w zależności od jego poziomu logicznego steruje linią reset procesora. Jeżeli sygnał Power_Good ma niski poziom, to układ czasowy przeprowadza operację ciągłego resetowania procesora, co zapobiega pracy komputera przy niewłaściwym lub niestabilnym napięciu zasilania. Kiedy układ czasowy wykryje obecność sygnału Power_Good, resetowanie procesora zostaje wstrzymane, a sam procesor zaczyna wykonywać program od adresu FFFF:0000. (znajdujący się zazwyczaj w pamięci ROM BIOS). Jeżeli zasilacz nie może utrzymać stałego poziomu napięcia wyjściowego (np. kiedy wystąpi spadek napięcia w sieci), sygnał Power_Good przybiera niski poziom, a procesor zostaje zresetowany. W momencie gdy osiągnięta zostanie prawidłowa wartość napięcia wyjściowego, sygnał Power_Good jest ustawiany, a komputer zaczyna normalną pracę (tak jak po włączeniu zasilania). Niski poziom sygnału Power_Good powoduje, że komputerowi nie będzie przeszkadzało nieprawidłowe zasilanie, ponieważ jego praca zostanie zatrzymana (reset). Kontynuowanie pracy przy nieprawidłowym czy wahającym się napięciu mogłoby spowodować błędy parzystości i inne problemy. W systemach przed-ATX-owych, sygnai Power_Good jest doprowadzony z zasilacza do płyty głównej złączem P8_l (końcówka l wtyczki P8). Systemy ATX i nowsze do tego celu używają 8. styku z 20stykowego złącza.. W dobrze zaprojektowanym zasilaczu sygnał Power_Good po włączeniu komputera jest wystawiany z pewnym opóźnieniem. Źle zaprojektowane zasilacze, które można spotkać w wielu tanich komputerach PC, nie wystawiają sygnału Power_Good z odpowiednim opóźnieniem, przez co procesor za wcześnie zaczyna pracę. Normalnie opóźnienie to powinno trwać od 0,1 do 0,5 sekundy. Nieodpowiednia wartość opóźnienia może spowodować naruszenie integralności pamięci CMOS. Jeżeli komputer nie przeprowadza poprawnego startu zaraz po włączeniu zasilania, natomiast naciśnięcie klawiszy Ctrl+Alt+Del powoduje reset komputera, prawdopodobnie oznacza to problem z sygnałem Power_Good. Przyczyna tego zjawiska tkwi w dołączeniu sygnału Power_Good do układu czasowego, który
generuje sygnał reset procesora. Powinniśmy zaopatrzyć się wtedy w nowy zasilacz wysokiej jakości i sprawdzić, czy to rozwiąże problem. Wiele tańszych modeli zasilaczy jest pozbawionych układu generowania sygnału Pow.er_Good, a zamiast tego sygnału zostaje po prostu wyprowadzone napięcie +5 V. Niektóre płyty główne są bardziej wrażliwe na nieprawidłowo zaprojektowany układ generowania sygnału Power_Good niż inne. Problemy związane z nieregularnym resetowaniem się komputera przy starcie są często spowodowane brakiem odpowiednich zależności czasowych dla sygnału Power_Good. Zjawisko to pojawia się często w komputerze po zmianie płyty głównej, kiedy to okazuje się, że komputer po włączeniu zasilania nie chce czasami wystartować. Problem okazuje się bardzo trudny do poprawnego zdiagnozowania, zwłaszcza dla osób nie dysponujących odpowiednią wiedzą, ponieważ na pierwszy rzut oka jego przyczyna leży w płycie głównej. Mogłoby się wydawać, że wadliwa jest nowa płyta, jednak zazwyczaj okazuje się, że to źle zaprojektowany oryginalny zasilacz, który albo nie może dostarczać odpowiednio stabilnego napięcia wyjściowego niezbędnego do poprawnej pracy płyty głównej, albo też przyczyną jest złe podłączenie lub niewłaściwy czas opóźnienia sygnału Power_Good. W sytuacjach takich problem rozwiązuje wymiana zasilacza na lepszy model. Obciążenie zasilacza PC Zasilacze komputerów PC to przeważnie zasilacze impulsowe (ang. switching power supplies), w odróżnieniu od zasilaczy pracujących ciągle (ang. linear). W zasilaczu impulsowym do generowania napięć wyjściowych wykorzystuje się szybki układ oscy-latora. Zasilacze impulsowe w porównaniu z ciągłymi charakteryzują się niewielkimi rozmiarami, małym ciężarem i niedużym poborem mocy. Zasilacze ciągłe do wytworzenia kilku poziomów napięcia wyjściowego wykorzystują duży wewnętrzny transformator. Jest to rozwiązanie nieefektywne co najmniej z trzech powodów. Po pierwsze - napięcie wyjściowe jest liniowo uzależnione od napięcia wejściowego. Po drugie, duże obciążenie wymagałoby zastosowania grubych zwojów w transformatorze; po trzecie aby odfiltrować sygnał o częstotliwości 50 Hz, potrzebne byłyby kondensatory o dużych pojemnościach. Z drugiej strony, zasilacze impulsowe „podbijają" częstotliwość wejściową do dość wysokich wartości. Pozwala to na zastosowanie transformatora wysokiej częstotliwości, który jest dużo lżejszy. Większa częstotliwość ułatwia odfiltrowanie sygnału. Rozwiązanie to jest także mniej czułe na wahania napięcia sieci - 220 V. Na przykład transformatory 110 V (na rynek amerykański) mogą być zasilane napięciami od 95 do 135 V. Wszystkie zasilacze impulsowe charakteryzują się tym, że nie mogą pracować bez obciążenia. Oznacza to, że do wyjść +5 V albo +12 V zasilacza musi być podłączony jakiś odbiornik energii, bo przeciwnym razie zasilacz w ogóle nie będzie pracował. Jeżeli pozostawimy nieobciążone wyjścia, to zasilacz albo ulegnie spaleniu, albo zostanie wyłączony przez układ zabezpieczający. Większość zasilaczy impulsowych jest zabezpieczona przed pracą bez obciążenia i po prostu wyłącza się. Niektóre jednak tańsze modele są pozbawione układu zabezpieczającego i przy braku obciążenia zostaną zniszczone po kilku sekundach od włączenia. Niektóre zasilacze mają wewnętrzne rezystory, dzięki którym mogą pracować bez zewnętrznego obciążenia. Według danych technicznych 192-watowego zasilacza firmy IBM, do poprawnej pracy zasilacza wymagany jest minimalny prąd o wartości 7,0 A dla wyjścia +5 V, a 2,5 A dla wyjścia +12 V. Napędy stacji dysków obciążają wyjście +12 V dopiero po rozpoczęciu wirowania, dlatego często komputery bez twardego dysku nie pracują poprawnie.
Większość zasilaczy impulsowych ma pewne wymagania co do minimalnych wartości prądów dla napięć +5 V i +12 V -jeżeli wartości te nie zostaną zagwarantowane, nastąpi wyłącznie zasilacza. Z powyższych przyczyn, w komputerach IBM AT sprzedawanych bez twardego dysku kabel zasilania dysku był dołączony do dużego, 5omowego rezystora o mocy 50 W, zamontowanego w małej metalowej klatce, w miejscu, w którym normalnie znajdowałby się dysk twardy. W obudowie komputera, tam gdzie znajdowałby się dysk, były otwory na śruby, przeznaczone do zamontowania klatki z rezystorem. W połowie lat 80. kilku znanych mi sprzedawców komputerów kupowało bezdyskowe komputery AT i instalowało w nich własne dyski 20 MB lub 30 MB, kosztujące dużo mniej niż dyski IBM. Sprzedawcy ci setkami pozbywali się rezystorów obciążających! Zdołałem zdobyć kilka takich rezystorów i stąd wiem, jakiego były typu.Rezystory obciążające były podłączane pomiędzy końcówkami l (+12 V) i 2 (masa) złącza zasilania twardego dysku. Spowodowało to przepływ prądu 2,4 A ze źródła napięcia + 12 V, co daje 29,9 W mocy - wydzielało się sporo ciepła - dzięki czemu zasilacz mógł normalnie funkcjonować. Zauważmy, że wentylatory w większości zasilaczy pobierają w przybliżeniu od 0,1 do 0,25 ampera prądu, zwiększając w ten sposób łączne obciążenie zasilacza do 2,5 lub więcej ampera. Jeżeli brakowało rezystora obciążającego, to komputer czasami nie chciał wystartować albo pracował w sposób niepoprawny. Płyta główna pobiera przez cały czas pewien prąd ze źródła +5 V, jednak napięcie +12 V jest wykorzystywane tylko przez silniki. Silniki stacji dyskietek przez większość czasu są wyłączone. Większość współczesnych zasilaczy 200-watowych nie wymaga minimalnego obciążenia 0 tak dużej wartości, jak oryginalny zasilacz IBM AT. Najczęściej wystarcza minimalny prąd od 2,0 A do 4,0 A dla napięcia +5 V i od 0,5 A do 1,0 A dla napięcia +12 V. Taki prąd pobiera najczęściej sama płyta główna. Standardowy wentylator zasilacza pobiera zaledwie od 0,1 do 0,25 ampera, tak więc zapewnienie wystarczającego obciążenia dla napięcia +12 V w większości bezdyskowych stacji roboczych może być problemem. Zasadniczo im wyższa jest moc zasilacza, tym większa jest wymagana wartość prądu obciążającego, są jednak wyjątki od tej reguły, tak więc parametry te najlepiej sprawdzić samodzielnie. Niektóre zasilacze impulsowe wysokiej klasy, np. modele firmy Astec, wykorzystywane we wszystkich komputerach IBM PS/2, mają wbudowane rezystory obciążające 1 mogą pracować bez obciążenia, ponieważ zasilacz sam dla siebie stanowi obciążenie. Większość zasilaczy w tańszych komputerach PC nie ma takich rezystorów i do po prawnej pracy musi mieć odpowiednie obciążone wyjścia +5 V i +12 V. Jeżeli przeprowadzamy test zasilacza, to powinniśmy zadbać o dostateczne obciążenie zarówno napięcia +5 V, jak i +12 V. Z tego powodu lepiej jest testować zasilacz podłączony do komputera, niż brać „na warsztat" sam zasilacz. Test taki można zaimprowizować z wykorzystaniem zapasowej płyty głównej i twardego dysku, które obciążą odpowiednio wyjścia +5 V i +12 V zasilacza.
Wartości napięć, prądów i mocy zasilacza Większość producentów komputerów dostarcza danych technicznych dla każdego zasilacza. Informację tę można zazwyczaj znaleźć w instrukcji obsługi, a także na etykietkach znajdujących się na zasilaczu. Najlepiej jednak zwrócić się o odpowiednią dokumentację osobiście do producenta zasilacza, o ile możliwe jest jego ustalenie. W tabelach 8.6 i 8.7 zestawiono parametry kilku zasilaczy firmy IBM, z których wywodzi się większość zasilaczy komputerów kompatybilnych. Napięcia wejściowe są podane w woltach, a prądy wyjściowe w amperach, dla kilku poziomów napięcia wyjściowego. Firma IBM oznacza moc wyjściową zasilacza jako „określoną moc wyjściową" (ang. specified output wattage). Jeżeli parametr ten nie został określony przez producenta, to można go obliczyć przy pomocy następującego wzoru: moc [Wat] = napięcie [Volt] x natężenie [Amper]Mnożąc napięcie wyjściowe na każdym z wyjść zasilacza przez prąd wyjściowy i dodając wyniki mnożenia, uzyskamy całkowitą moc wyjściową zasilacza. Tabela 8.6. Napięcia, prądy i moce zasilaczy w „klasycznych" komputerach IBM
Minimalne napięcie wejściowe napięcie Maksymalne wejściowe Opcja przełączania 1 10/220 V prądy wyjściowe: wyjście 5 V Wyjście -5 V Wyjście 12 V Wyjście -1 2 V Moc wyjściowa - wg obliczeń Podawane moc wyjściowa
PC
Port-PC
XT
104 127 Nie 7,0 t, 3 :,o 0,25 63,5 63,5
90 137 Tak 11,2 0,3 4,4 0,25 113.3 114,0
90 137 Nie 15,0 0,3 4,2 0,25 129,9 130,0
XT286 90 137 Tak 20 0,3 4,2 0,25 154,9 157,0
AT 90 137 Tak 19,8 0,3 7,3 0,3 191,7 192,0
Tabela 8.6 przedstawia poziomy napięć wyjściowych w zasilaczach formatów standardowych. Większość producentów zasilaczy ma w ofercie modele o różnej mocy wyjściowej. Dostępne są zasilacze o mocy od 100 do 450 watów. Tabela 8.7 przedstawia prądy wyjściowe dla wszystkich napięć wyjściowych w zasilaczach o różnych wartościach mocy wyjściowej, określonej przez producenta. Układając tę tabelę, posłużyłem się danymi technicznymi zasilaczy firm Astec Standard Power i PC Power and Cooling. Z tabeli widać, że podawane wartości są w większości dokładne, jednak wartości mocy wyjściowej są czasami podawane błędnie.
Tabela 8.7. Typowe wartości parametrów wyjściowych zasilaczy kompatybilnych Moc wyjściowa określona przez producenta
100 W
150 W
200 W
250 W
300 W
375 W
450 W
Wyjście 5 V
10,0
15,0
20,0
25,0
32,0
35,0
45,0
Wyjście -5 V
0,3
0,3
0,3
0.5
1,0
0,5
0,5
Wyjście 12 V
3,5
5,5
8,0
10,0
10,0
13,0
15,0
Wyjście -12 V
0,3
0.3
0.3
0.5
1,0
0.5
1.0
Obliczona moc wyjściowa
97.1
146,1 201,1 253,5 297,0 339,5 419,5
Prądy wyjściowe:
Dodanie poziomu napięcia 3,3 V znacząco zmienia powyższe dane. Widać to w tabeli 8.8, zawierającej informacje dotyczące zasilaczy ATX. Porównanie tych danych mogłoby zasugerować, że dane producentów są zaniżone w porównaniu do maksymalnych możliwości zasilaczy. Jednak istnienie dodatkowego ograniczenia - maksymalnej mocy wydzielonej na odbiornikach 5 V oraz 3,3 V- likwiduje tę niejednoznaczność.
z IBM ma moc wyjściową od 150 do 250 watów. Mniejsze wartości mocy są raczej niepożądane, natomiast w handlu można spotkać potężne zasilacze o mocy wyjściowej dochodzącej nawet do 500 W, współpracujące z większością klonów PC. Zasilacze 300-watowe i większe znakomicie się nadają do współpracy z komputerami typu desktop czy to we r o bardzo rozbudowanych konfiguracjach. Mogą one współpracować z każdą kombinacją płyty głównej i kart rozszerzających oraz z dużą ilością napędów dyskowych. W większości przypadków niemożliwe jest przekroczenie ich dopuszczalnej mocy wyjściowej, ponieważ zanim doszłoby do tego, w komputerze zabrakłoby miejsca na dalszą rozbudowę. Większość spotykanych zasilaczy to zasilacze uniwersalne (ang. universal, worldwide). Oznacza to, że są one przystosowane do napięcia sieciowego 220 V o częstotliwości 50 Hz, spotykanego w Europie i wielu innych częściach świata. Większość zasilaczy może automatycznie przełączyć się z napięcia 220 V na 110 V, jednak spotyka się i takie, które wymagają przełączenia w tym celu odpowiedniego przełącznika z tyłu zasilacza, (zasilacze automatyczne badają poziom napięcia w sieci i w zależności od tego się przełączają). Jeżeli zasilacz jest pozbawiony opcji automatycznego przełączania, to należy się upewnić, że napięcie wejściowe zostało poprawnie ustawione. Zasilacz 220 V podłączony do gniazdka sieci 110 V nie uszkodzi się, jednak nie będzie działał poprawnie. Jeżeli jednak znajdujemy się poza USA i do gniazdka 220 V podłączymy zasilacz 110 V, to możemy spowodować uszkodzenie zasilacza. Parametry zasilacza Oprócz określonych wartości wyjściowych napięć, prądów i mocy, wysokiej klasy zasilacze powinny spełniać jeszcze dodatkowe warunki. Przez lata miałem do czynienia z wieloma komputerami. Z doświadczenia wiem, że kiedy w pokoju, w którym pracowało wiele komputerów, nastąpił spadek napięcia w sieci (ang. brownout), to komputery z zasilaczami wysokiej klasy zawsze przeżywały to bez większych problemów, natomiast pozostałe komputery ,,padły". Wielu zasilaczyrupieci, spotykanych w tanich komputerach pośledniej jakości, nie kupiłbym nawet za $5.Wysokiej klasy zasilacz stanowi także formę ochrony dla komputera. Modele pochodzące od jednego z takich producentów jak Astec czy PC Power and Colling nie ulegną uszkodzeniu w poniższych sytuacjach: * Nastąpi całkowity brak dopływu prądu * Dowolny spadek napięcia sieciowego 4 Szpilki do 2500 V podawane bezpośrednio na wejście sieciowe zasilacza (np. błyskawice czy testy przeciwburzowe). Przyzwoite zasilacze charakteryzują się znikomo małą upływnością prądu do ziemi -poniżej 500 \iA. Parametr ten ma duże znaczenie dla wymogów bezpieczeństwa, zwłaszcza jeżeli gniazdko ma źle wykonaną czy źle podłączoną linię uziemiającą. Widać więc, że wymagania stawiane zasilaczom są dość rygorystyczne, a ich spełnieniem charakteryzują się zasilacze wysokiej klasy. Przed kupnem zasilacza upewnijmy się, że kupowany model te wymagania spełnia. Zasilacze pochodzące od producentów wymienionych w tym rozdziale spełniają albo nawet przewyższaj ą te wymagania.
Przy wyborze zasilacza możesz wziąć pod uwagę także inne kryteria. Zasilacz jest elementem ignorowanym przez wielu użytkowników kupujących komputery, więc czasem zdarza się, że sprzedawca chce na nim zaoszczędzić. Oczywiste jest, że sprzedawca woli wydać zaoszczędzone pieniądze rozbudowując pamięć komputera lub instalując większy twardy dysk, niż instalować lepszy zasilacz. Podczas zakupu komputera (lub tylko zasilacza) dobrze jest dowiedzieć się o zasilaczu jak najwięcej. Często jednak wielu użytkowników jest przytłoczonych słownictwem i wartościami występującymi w specyfikacji typowych zasilaczy. Oto kilka z najważniejszych parametrów występujących w dokumentacji zasilaczy, a także ich znaczenie: 4 Średni czas pomiędzy awariami (MTBF, rnean time bet\veen failures) lub średni czas do awarii (MTTF, mean time tofailure). Obliczony średni czas, w godzinach, w jakim zasilacz powinien bezawaryjnie pracować. Zasilacze zwykle mają podane czasy MTBF (rzędu 100 000 lub więcej godzin), z których jasno wynika, że nie zostały dobrane doświadczalnie. Producenci obliczają ten czas w oparciu o parametry dotyczące awaryjności poszczególnych elementów zasilacza. Wykresy MTBF zasilaczy często biorą pod uwagę także obciążenie zasilacza (w procentach) oraz temperaturę środowiska, w którym pracuje. •
Zakres wejściowy (Input Rangę) lub zakres pracy (Operating Rangę). Zakres napięcia sieci zasilającej, jakie akceptuje zasilacz. W przypadku napięcia 110 V, zwykle akceptowane są napięcia z zakresu od 90 do 135 V, zaś w przypadku 220 V - napięcia z zakresu od 180 do 270 V.
•
^ Szczytowy prąd po włączeniu (Peak Inrush Current). Najwyższy prąd pobierany przez zasilacz natychmiast po włączeniu, wyrażony w amperach przy danym napięciu zasilania. Im mniejszy prąd, tym mniejszy szok termiczny odczuwasystem.
Czas podtrzymania (Holdup Time). Czas (w milisekundach), przez jaki zasilacz podtrzymuje napięcia zasilające po zaniku zewnętrznego zasilania. Typowy czas podtrzymania dzisiejszych zasilaczy to 15-25 ms. Czas odpowiedzi (Transient Response - czas trwania stanu nieustalonego) Czas (w milisekundach), po jakim zasilacz powraca do znamionowych wartości napięć po gwałtownej zmianie prądu wyjściowego. Innymi słowy, czas, jaki jest potrzebny na ustabilizowanie zasilacza po tym, jak jakieś urządzenie w komputerze zacznie lub skończy pobierać prąd. Zasilacze w określonych przedziałach czasu sprawdzają wartość prądu pobieranego przez system. Gdy urządzenie w tym czasie przestanie pobierać prąd (na przykład gdy zatrzyma się silnik stacji dysków), przez pewien czas zasilacz może podawać zbyt wysokie napięcie. Takie nadmiarowe napięcie określa się mianem overshoot, zaś czas odpowiedzi to czas, po jakim napięcie zasilacza wraca do normy. Dawniej zjawisko overshoot-u było poważnym problemem, ale podczas ostatnich kilku lat zaczęto sobie z nim dość dobrze radzić. Wartości czasu odpowiedzi są niekiedy wyrażane w przedziałach czasu, niekiedy też jako wartość, która powoduje zmianę napięcia, np. „wartości napięć pozostają bez zmian, jeśli zmiany prądu wyjściowego nie przekroczą 20%." Ochrona przed przepięciami (Overvoltage Protection). Najwyższa wartość dla każdego z napięć zasilających, przy których zasilacz wyłącza lub tłumi dane napięcie. Wartości mogą być wyrażone procentowo (np. 120% dla napięć +3,3 i +5 V) lub bezwzględnie (np. +4,6 V dla napięcia +3,3 V i +7,0 V dla napięcia +5 V). Maksymalny prąd obciążenia (Maximum Load Current). Największy prąd (w amperach), jaki może być pobierany z danego wyjścia. Wartości są wyrażane osobno dla każdego z wyjść. Na ich podstawie możesz obliczyć nie tylko całkowitą ilość mocy dostarczanej przez zasilacz, ale także jak wiele urządzeń używających różnych napięć może on obsłużyć. Minimalny prąd obciążenia (Minimum Load Current). Najmniejszy prąd (w amperach), jaki musi być pobierany z danego wyjścia, aby prawidłowo funkcjonowało. Wartości są wyrażane osobno dla każdego z wyjść. Jeśli prąd pobierany z wyjścia jest zbyt mały, zasilacz może ulec uszkodzeniu lub może zostać automatycznie wyłączony. Regulacja obciążenia (Load Regulation). Gdy prąd pobierany z określonego wyjścia rośnie lub maleje, nieco zmienia się także napięcie, zwykle rosnąc wraz ze wzrostem pobieranego prądu. Regulacja obciążenia to zmiana napięcia danego wyjścia w wyniku przejścia z maksymalnego do minimalnego obciążenia (lub odwrotnie). Wartości, wyrażone w procentach, zwykle wahają się w granicach +/-!% do +/-5% dla napięć +3,3, +5 i +12 V. Regulacja linii (Linę Regulation). Zmiana w napięciu wyjściowym przy zmianie wartości napięcia w sieci zasilającej od najniższej do najwyższej wartości tolerancji. Zasilacz powinien mieć możliwość zaakceptowania wszystkich napięć z zakresu wejściowego, nie powodując przy tym zmian napięć wyjściowych większych niż jeden procent.
Efektywność (Efficiency). Stosunek mocy pobieranej do mocy oddawanej przez zasilacz, wyrażony w procentach. Typowe wartości dla dzisiejszych zasilaczy to 65-85%. Pozostałe 15-35% mocy jest zamienianych na ciepło podczas pro cesu zamiany prądu zmiennego w stały. Choć większa efektywność oznacza mniej ciepła w komputerze (co jest zawsze dobre) i niższe rachunki za energię, zwykle należy do podanej wartości podchodzić z dużą rezerwą, gdyż znacznie się zmienia wraz z obciążeniem i napięciem wejściowym. Szumy (Noise). Średnie zmiany napięcia wynikłe z odchyleń w parametrach wszystkich elementów zasilacza, mierzone w mili woltach pomiędzy kolejnymi szczytami dla każdego z napięć zasilających. Te zmiany mogą być wywołane przez zmiany stanów układów elektronicznych, indukcję i inne przypadkowe wpływy. Certyfikaty na zasilanie Istnieje wiele agencji zajmujących się certyfikowaniem poszczególnych rozwiązań technicznych - zarówno pod względem bezpieczeństwa, jak i jakości. Jedną z nich jest UL - amerykańska agencja Underwriters Laboratories, Inc. Choć zdarza się, że udane produkty nie mają jej certyfikatów, to właściwie nie ma urządzeń złej jakości, które mogłyby się poszczycić ich posiadaniem. W Kanadzie certyfikowaniem zajmuje się Canadian Standards Agency (CSA - Kanadyjskie Centrum Certyfikacji). Niemieckim odpowiednikiem jest TUV Rheinland oraz VDE. NEMKO działa w Norwegii. Produkty sprzedawane na całym świecie powinny posiadać przynajmniej certyfikaty UL, CSA oraz TUV. Zdarza się, że producenci przypisują sobie certyfikat „FCC Class B certification". Oznacza to, że produkt jest zgodny z normami EMI/RFI na wysyłanie zakłóceń elektromagnetycznych i interferencji radiowych, wydawany przez Federal Communications Commission (FCC). Jest to o tyle dziwne, że FCC nie certyfikuje zasilaczy jako osobno sprzedawanych produktów. Jak głosi paragraf 47 „Code of Federal Regulations, Part 15, Section 15.101(Q": „FCC nie autoryzuje płyt głównych, obudów i wewnętrznych zasilaczy. Wszelkie zapewnienia, że produkt jest zgodny z normami FCC na płyty główne, FCC na obudowy oraz FCC na wewnętrzne zasilacze - są fałszywe". De facto - jedyną metodą na zdobycie ich certyfikatu jest przedstawienie kompletnego komputera z wszystkimi wyżej wymienionymi komponentami złożonymi razem. Stąd zamieszanie - zdarza się, że gdy zasilacz jako część zestawu komputerowego zdobędzie ów certyfikat, jego producent od tej pory na swoich produktach będzie umieszczał logo „FCC Rules". Tych kilka akapitów ma jedynie na celu przestrogę - że czasem nie należy przykładać tak wielkiej wagi do certyfikatu FCC, jak do innych - na przykład UL lub TUV.
Jedynym ze sposobów na sprawdzenie, czy komputer nadaje się do dalszej rozbudowy, jest obliczenie mocy pobieranej przez poszczególne podzespoły komputera i odjęcie sumy tych wartości od całkowitej mocy wyjściowej zasilacza. Obliczenie to może pomóc w podjęciu decyzji o kupnie wydajniejszego zasilacza. Kalkulacje te mogą być jednak trudne do przeprowadzenia, ponieważ większość producentów podzespołów komputera nie publikuje danych odnośnie zużycia energii. Trudno jest określić pobór mocy dla większości podzespołów zasilanych napięciem +5 V, w tym płyty głównej i kart rozszerzających. Prąd pobierany przez płytę główną zależy od wielu czynników. Większość płyt 486DX2 pobiera około 5 A prądu, lepiej jednak znaleźć dokładne dane dla konkretnej płyty. Jeżeli dostępne są odpowiednie dane dla kart rozszerzających, to należy ich użyć w obliczeniach. Ja przyjmuję jednak konserwatywne podejście, polegające na braniu pod uwagę maksymalnych wartości wymuszanych przez magistralę danego standardu. Przykładowo rozważmy typowe zużycie mocy we współczesnym komputerze PC. Większość standardowych komputerów typu desktop czy slimline jest wyposażona w zasilacz 200-watowy o obciążalności wyjścia +5 V równej 20 A, a wyjścia +12 V wynoszącej 8 A. Specyfikacja magistrali ISA określa maksymalny prąd równy 2,0 A dla napięcia +5 V i 0,175 A dla napięcia +12 V, dla każdego gniazda rozszerzającego na płycie głównej. Większość płyt głównych ma osiem gniazd rozszerzających i na nasze potrzeb można przyjąć, że cztery z nich są zajęte przez karty rozszerzające. Poniższe wyliczenie pokazuje wynik odejmowania wartości prądu wymaganego do pracy poszczególnych podzespołów od dopuszczalnego obciążenia zasilacza: Wygląda na to, że wszystko jest w porządku. W komputerze z połową slotów zapełnionych kartami, dwiema stacjami dyskietek i dyskiem twardym wciąż można dodawać nowe podzespoły. Kłopoty mogłyby się pojawić, gdyby komputer ten został rozszerzony do granic jego możliwości. Zajęcie wszystkich gniazd rozszerzających i zainstalowanie dwóch lub więcej dysków twardych z pewnością spowoduje problemy ze zbyt dużym obciążeniem napięcia +5 V. Natomiast napięcie +12 V można dalej obciążać. Możemy spokojnie dodać dodatkowy CD-ROM czy dysk twardy, nie martwiąc się o obciążenia wyjścia +12 V zasilacza, jednak wyjście +5 V zostałoby przeciążone. Jeżeli przewidujemy znaczną rozbudowę naszego komputera- np. w przypadku wysokiej klasy systemu multimedialnego - dobrze jest zabezpieczyć się i zainwestować w zasilacz o większej wydajności prądowej. Np. zasilacz 250-watowy charakteryzuje się zazwyczaj obciążalnością 25 A dla wyjścia +5 V, a 10 A dla wyjścia +12 V, natomiast w zasilaczu 300-watowym obciążalność źródła +5 V wynosi 32 A. Zasilacze tego typu pozwalają na uzyskiwanie bardzo rozbudowanych konfiguracji komputerów, spotyka się je w komputerach typu desktop (dużych) czy tower, w których tak duże możliwości zasilacza mogą być w pełni wykorzystane. Płyta główna komputera potrzebuje do pracy prądu o wartości od 4 A do 15 A, albo nawet większego, ze źródła +5 V. Sam procesor Pentium 66 MHz pobiera 3,2 A ze źródła +5 V. Jeżeli mamy do czynienia z komputerem dwuprocesorowym, a takie są już osiągalne, to same procesory pobierałyby 6,4 A prądu. Płyta główna z dwoma procesorami, wyposażona w 64 MB pamięci RAM, mogłaby pobierać 15 A prądu albo więcej. Większość płyt 486DX2 pobiera mniej więcej od 5 do 7 amperów ze źródła +5 V. Gniazda rozszerzające pobierają prąd według wartości z tabeli 8.9.
Tabela 8.9. Maksymalny pobór prądu w gniazdach kart rozszerzających (w ampcrach) Typ magistrali +5 V +12 V +3,3 V ISA EISA VL-Bus MCA 16bitowa MCA 32bitowa PCI
2,0 4,5 2,0 1,6 2.0 5
0,175 1,5 Nie podłączone 0,175 0,175 0,5
Nic podłączone Nic podłączone Nie podłączone Nie podłączone Nie podłączone 7,6
Jak widać z tabeli, słoty ISA pobierają 2,0 A prądu z napięcia +5 V i 0,175 Aż napięcia + 12 V. Weźmy pod uwagę, że są to wartości maksymalne i nie wszystkie karty pobierają tyle prądu. Jeżeli gniazdo rozszerzające ma dodatkowe złącze YL-Bus. to pobiera jeszcze dodatkowo 2,0 A ze źródła +5 V. Stacje dyskietek mogą pobierać różne prądy, jednak większość spośród nowszych stacji 3,5-calowych posiada oprócz elementów elektronicznych także silniki zasilane napięciem +5 V. Napędy takie pobierają zwykle 1,0 A prądu ze źródła +5 V, a napięcia +12 V nie wykorzystują w ogóle. Większość napędów 5,25-calowych wykorzystuje standardowe silniki 12woltowe, pobierające około l A. Ponadto napędy te pobierają ok. 0,5 A na potrzeby swoich układów elektronicznych. Większość wentylatorów pobiera 0,2 A z napięcia +12 V, co jest bez większego znaczenia. Typowy dysk twardy 3,5 cala pobiera ok. l A prądu z napięcia + 12 V zasilającego silnik i zaledwie 0,5 A ze źródła +5 V na potrzeby układów elektronicznych. Dyski twarde 5,25 cala, zwłaszcza dyski o podwójnej wysokości (ang. full-height drives), pobierają więcej prądu. Typowy dysk twardy o podwójnej wysokości pobiera 2,0 A prądu ze źródła +12 V i 1,0 A z napięcia +5 V. Innym problemem związanym z dyskiem twardym jest znacznie większy pobór prądu w czasie rozruchu dysku niż w czasie normalnej pracy. W większości przypadków napęd dysku pobiera z napięcia +12 V dwa razy więcej prądu w fazie wchodzenia w wirowanie, co dla dysków o podwójnej wysokości może wynieść 4,0 A lub więcej. Kiedy dysk już wiruje, to pobór prądu spada. Wartości maksymalnego obciążenia podawane przez producentów zasilaczy dotyczą ciągłej pracy zasilacza, tzn. zasilacz przez cały czas może dostarczać określony prąd do obciążenia. Zazwyczaj od zasilacza mogącego stale pracować z określoną wydajnością prądową można oczekiwać wytrzymałości na większe obciążenie przez pewien ograniczony czas. Na ogół zasilacz można obciążyć prądem o 50 procent większym, niż dopuszczany przez producenta, przez mniej więcej l minutę. Czas ten służy do zamortyzowania efektu związanego z większym poborem prądu przez dysk twardy, który wchodzi w wirowanie. Po rozpędzeniu się dysku do pełnej szybkości, pobór prądu obniża się do wartości mieszczącej się w ramach możliwości pracy ciągłej zasilacza. Jeżeli przez dłuższy czas pobór prądu będzie większy niż dopuszczalna wartość, spowoduje to przegrzewanie się zasilacza i wczesną jego awarię. Może być to także powodem różnych złośliwych niespodzianek w komputerze. W przypadku obecności w komputerze wewnętrznych dysków SCSI, można łatwo zmniejszyć obciążenie zasilacza związane z rozruchem dysku. W tym celu należy włączyć opcję Remote Start w napędzie SCSI, co spowoduje, że dysk rozpocznie wirowanie dopiero po otrzymaniu odpowiedniej komendy przez magistralę SCSI. W efekcie aż do zakończenia testu POST dysk będzie w trybie
spoczynku (pobierając bardzo mało energii). Dopiero przejście do wykonywania części testu POST związanej z obsługą urządzeń SCSI spowoduje rozpoczęcie kręcenia się dysku. Gdy w komputerze jest wiele urządzeń SCSI, to zaczynają się one kręcić po kolei, w zależności od parametru SCSI ID. Dzięki temu, w danym momencie zaczyna wirować tylko jeden dysk, a żaden z dysków nie zacznie się poruszać przed wcześniejszym uruchomieniem pozostałych podzespołów komputera. Takie podejście znacznie zmniejsza obciążenie zasilacza przy starcie komputera. Powyższa wskazówka staje się dość istotna w przypadku komputerów przenośnych, w których zużycie energii jest sprawą kluczową. Zdarzyło mi się raz spalić zasilacz w komputerze przenośnym, ponieważ wewnętrzny dysk komputera nie miał ustawionej opcji Remote Start. Najwięcej problemów ze zbyt obciążonym zasilaczem pojawia się przy dodawaniu kart rozszerzających i napędów dyskowych. Dodatkowe dyski twarde, CD-ROM-y czy stacje dyskietek mogą wycisnąć z zasilacza ostatnie poty. Przed zainstalowaniem nowych
W przypadku obecności w komputerze wewnętrznych dysków SCSI, można łatwo zmniejszyć obciążenie zasilacza związane z rozruchem dysku. W tym celu należy włączyć opcję Remote Start w napędzie SCSI, co spowoduje, że dysk rozpocznie wirowanie dopiero po otrzymaniu odpowiedniej komendy przez magistralę SCSI. W efekcie aż do zakończenia testu POST dysk będzie w trybie spoczynku (pobierając bardzo mało energii). Dopiero przejście do wykonywania części testu POST związanej z obsługą urządzeń SCSI spowoduje rozpoczęcie kręcenia się dysku. Gdy w komputerze jest wiele urządzeń SCSI, to zaczynają się one kręcić po kolei, w zależności od parametru SCSI ID. Dzięki temu, w danym momencie zaczyna wirować tylko jeden dysk, a żaden z dysków nie zacznie się poruszać przed wcześniejszym uruchomieniem pozostałych podzespołów komputera. Takie podejście znacznie zmniejsza Powyższa wskazówka staje się dość istotna w przypadku komputerów przenośnych, w których zużycie energii jest sprawą kluczową. Zdarzyło mi się raz spalić zasilacz w komputerze przenośnym, ponieważ wewnętrzny dysk komputera nie miał ustawionej opcji Remote Start. Najwięcej problemów ze zbyt obciążonym zasilaczem pojawia się przy dodawaniu kart rozszerzających i napędów dyskowych. Dodatkowe dyski twarde, CD-ROM-y czy stacje dyskietek mogą wycisnąć z zasilacza ostatnie poty. Przed zainstalowaniem nowychnapędów zawsze upewnijmy się, że wyjście +12 V zasilacza ma wystarczającą wydajność prądową. Problem mogą sprawiać komputery o konfiguracji typu tower, które mają dużo wnęk na napędy dyskowe. Należy się również upewnić, że wyjście +5 V za-pewni wystarczający prąd dla wszystkich kart rozszerzających, zwłaszcza kart VL-Bus i EISA. Opłaca się stosować oszczędną politykę w tym względzie, pamiętajmy jednak, że większość kart pobiera prąd o wartości mniejszej niż dopuszczalna. Najnowsze procesory mogą mieć bardzo duże wymagania co do zasilania. Trzeba więc je także uwzględniać przy zakupie nowego komputera - czy aby nie braknie w przyszłości mocy, po zmianie procesora na nowszy? Wielu użytkowników zwleka z wymianą zasilacza na lepszy do czasu, aż obecny w komputerze się zepsuje. Jeżeli dysponujemy niewielkimi środkami finansowymi, to podejście typu „nie naprawiać niczego, co nie jest zepsute" skutkuje przez pewien czas. Zasilacze mają jednak to do siebie, że często nie psują się tak po prostu. Symptomy awarii pojawiają się nieregularnie, do komputera mogą też przedostawać się wahania napięcia, powodujące jego niestabilną pracę. O zawieszanie się komputera skłonni byli-byśmy raczej obwiniać błędy w oprogramowaniu, niż zbyt obciążony zasilacz. Jeżeli komputer przez długi czas pracuje z oryginalnym zasilaczem, to możemy spodziewać się wystąpienia różnych problemów. Najmniej pracochłonną techniką pozbywania się problemów z zasilaniem jest po prostu kupno komputera z na tyle dużym zasilaczem (na przykład 300 W), żeby nigdy nie stał się zbyt słaby. Dopóki nie kupimy karty SCSI, do której podłączymy 6 dysków twardych, oraz tuzina innych urządzeń - nie będziemy musieli się o nic martwić.
Pozostawić komputer włączony czy wyłączyć go? Częstym spotykam się z pytaniem, czy należy wyłączać komputer, gdy z niego nie korzystamy. Trzeba tutaj wyjaśnić kilka faktów dotyczących anatomii elementów elektronicznych i przyczyn ich awarii. Wiedza ta, w połączeniu z informacją o zużyciu przez komputer energii elektrycznej i jej cenie, a także na temat bezpieczeństwa, pozwoli być może na samodzielne wysnucie odpowiednich wniosków. Okoliczności mogą być różne, dlatego najlepsza odpowiedź na zadane pytanie może być różna, w zależności od osobistych wymagań i zastosowania komputera.
Częste włączanie i wyłączanie komputera powoduje zużywanie się i niszczenie jego podzespołów - to chyba nie ulega wątpliwości. Przyczyna zużywania się elementów komputera jest dość prosta, jednak nie dla wszystkich oczywista. Wiele osób sądzi, że częste włączanie i wyłączanie komputera szkodzi mu, ponieważ stanowi „szok" elektryczny. W rzeczywistości jednak problemem jest co innego - temperatura. Mówiąc inaczej, szkodliwy dla komputera jest nie tyle „szok" elektryczny, co raczej termiczny. W momencie włączenia komputera jego podzespoły się rozszerzają, a w momencie wyłączenia - kurczą. Efekt ten rzutuje na pracę całego komputera. Ponadto różne materiały zastosowane w komputerze mają różny współczynnik rozszerzalności cieplnej, co oznacza, że rozszerzają się i kurczą przy różnych temperaturach. W dłuższej perspektywie szoki termiczne powodują zużycie wielu podzespołów w komputerze. Z punktu widzenia niezawodności działania komputera, najlepiej w ogóle unikać szoków termicznych, o ile to możliwe. Po włączeniu komputer nagrzewa się od temperatury pokojowej do temperatury 85°C w ciągu 30 minut lub krócej. Po wyłączeniu komputera zachodzi to samo zjawisko, tylko w odwrotnym kierunku i podzespoły ochładzają się do temperatury początkowej w dość krótkim czasie. Każdy z podzespołów rozszerza się i kurczy w trochę innym stopniu, co naraża komputer na bardzo duże naprężenia. Rozszerzalność i kurczliwość termiczna jest największą przyczyną awarii podzespołów komputera. Pękać mogą obudowy układów scalonych, przez co do ich środka przedostaje się szkodliwa wilgoć. Mogą się łamać delikatne przewody i styki, a na płytkach drukowanych w wyniku pęknięć mogą się pojawiać szczeliny. Elementy montowane w technologii montażu powierzchniowego kurczą się i rozszerzają w inny sposób niż płytka, do której są przylutowane, co powoduje wywieranie dużego nacisku na pola lutownicze. Twardniejący metal wywiera stały nacisk, powodując powstanie pęknięć w miejscach lutowania. Elementy wyposażone w radiatory, takie jak procesory, tranzy-story czy regulatory napięcia mogą się przegrzewać i ulegać awarii, ponieważ z powodu ciągłych zmian temperatury osłabia się klej wiążący radiator z elementem, pogarszając przewodzenie ciepła pomiędzy elementem a radiatorem. Zjawiska termiczne powodują również uszkodzenia układów na podstawkach i ich wyprowadzeń, co może być przyczyną różnych pojawiających się losowo problemów z przewodzeniem styków Rozszerzalność i kurczliwość termiczna dotyczy nie tylko układów scalonych i płytek drukowanych, lecz także takich urządzeń jak dyski twarde. Większość dysków posiada skomplikowane mechanizmy kompensacji termicznej, które przeprowadzają regulację położenia głowicy dysku w miarę rozszerzania i kurczenia się talerzy dysku. Większość dysków przez pierwsze 30 minut pracy przeprowadza rutynową kompensację termiczną co 5 minut, a później co 30 minut; w wielu dyskach objawem tego jest szybki dźwięk „tik tik tik tik". Podsumowując, żywotność komputera przedłużają wszystkie zabiegi utrzymujące jego stałą temperaturę, a najlepszym sposobem realizowania tego celu jest pozostawienie komputera przez cały czas włączonego albo wyłączonego. Oczywiście komputer, który nigdy nie bywa włączany, pozostanie sprawny przez bardzo długi czas! Powyższe informacje nie muszą oznaczać, że komputer powinien pozostać włączony przez 24 godziny na dobę. Komputer włączony i pozostawiony bez nadzoru może stanowić zagrożenie pożarowe (miałem do czynienia z monitorami, które samoistnie się zapalały - na szczęście byłem wówczas przy tym), nie jest zabezpieczony przed utratą danych (sprzątaczki i inni nocni goście), może zostać łatwo uszkodzony przy przesuwaniu, no i zużywa prąd. W USA cena l kilowatogodziny energii elektrycznej wynosi 0,11 $. Typowy komputer desktop PC z monitorem pobiera 300 W (0,3 kilowata) energii (oszacowanie to jest dość „konserwatywne"). Oznacza to, że godzina pracy typowego komputera PC kosztuje 3,3 centa. Wartość ta pomnożona przez 168 godzin w tygodniu daje 5,54 $ - jest to cena tygodniowej ciągłej pracy komputera PC.
Gdyby komputer był włączany o 9:00 rano i wyłączany o 17:00, to pracując przez 40 godzin tygodniowo kosztowałby tylko 1,34$, co daje tygodniowo oszczędność 4,42$! Pomnóżmy tę wartość przez 100 komputerów - zaoszczędzimy 442$ tygodniowo, pomnóżmy przez 1000 komputerów i oszczędzamy 4420$ tygodniowo! Korzystanie z komputerów zgodnych z programem EPA Energy Star („Green PCs") pozwala zaoszczędzić jeszcze 1$ na komputer tygodniowo, czyli 1000$ tygodniowo dla 1000 komputerów. Zaletą komputerów Energy Star są dodatkowe oszczędności energii w komputerze, który jest bezczynny przez dłuższy czas, ponieważ procedury zarządzania energią działają automatycznie. Uwzględniając powyższe fakty, .zalecałbym włączanie komputera na początku dnia pracy i wyłączanie go pod koniec dnia. Nie wyłączajmy komputerów w czasie przerw na posiłek i innych krótkich przerw. Oczywiście serwery powinny być przez cały czas włączone. Opisane postępowanie wydaje się najlepszym kompromisem pomiędzy zachowaniem jak najdłuższej żywotności komputera a oszczędnością pieniędzy.
Zarządzanie energią W miarę gdy z biegiem lat komputery osiągały coraz lepsze parametry, rosły także wymagania co do systemu zasilania komputera. Większe monitory, szybsze napędy CD-ROM i karty dźwiękowe wymagają coraz więcej mocy, więc cały czas rosną koszty pracy komputera. Aby rozwiązać ten problem, opracowuje się wiele programów i standardów mających na celu maksymalne obniżenie ilości zużywanej przez komputer energii. W przypadku standardowego systemu stacjonarnego zarządzanie energią jest kwestią ekonomii i wygody. Automatycznie wyłączając elementy komputera, gdy nie są używane, obniżasz rachunek za energię elektryczną i nie musisz przy tym pamiętać, aby zawsze je samemu włączać i wyłączać. W przypadku komputerów przenośnych zarządzanie energią jest dużo ważniejsze. Dodanie napędu CD-ROM, głośników i innych urządzeń do laptopa lub notebooka redukuje i tak krótkie życie jego akumulatora. Dzięki nowym technologiom zarządzania energią, prze-nośne systemy mogą dostarczać energii jedynie tym elementom, które są rzeczywiście potrzebne do pracy, przedłużając tym samym czas pomiędzy kolejnymi ładowaniami akumulatora.
Komputery Energy Star Stowarzyszenie ETA wprowadziło program certyfikacji komputerów PC i urządzeń peryferyjnych, które oszczędnie gospodarują energią. Aby komputer czy monitor mógł uzyskać certyfikat tego programu, musi w stanie bezczynnym pobierać z gniazdka sieciowego nie więcej niż 30 watów mocy. Komputery zgodne z tą specyfikacją mają logo Energy Star. Obecność w programie jest dobrowolna, oznacza to, że nie ma obowiązku spełnienia wymogów programu przez wszystkie komputery. Wielu producentów komputerów odkryło jednak, że komputery oznaczone jako „oszczędzające energię" le-piej się sprzedają. Wadą komputerów Energy Star jest bardzo mały pobór energii przez płytę główną czy dysk komputera, gdy znajdują się w stanie uśpienia. Stanowi to problem dla niektórych zasilaczy, ponieważ zbyt niski pobór prądu nie zapewnia dostatecznego obciążenia i zasilacz nie może poprawnie pracować. Większość spośród nowszych zasilaczy spotykanych na rynku jest przystosowana do współpracy z komputerami Energy Star i ma nieduże wymagania co do minimalnego obciążenia. Przy kupnie nowego zasilacza radziłbym się upewnić, czy komputer zagwarantuje dostateczne obciążenie, bo w przeciwnym razie komputer, który przeszedł w stan uśpienia, może zostać natychmiast „przebudzony" przez zasilacz! Problem ten najbardziej daje się we znaki, jeżeli zainwestowaliśmy w zasilacz o dużej wydajności i wykorzystujemy go w komputerze, który przy starcie pobiera bardzo mało prądu.
Zaawansowane zarządzanie energią (APM) APM jest specyfikacją opracowaną wspólnie przez firmy Intel oraz Microsoft, definiującą współpracę pomiędzy urządzeniami, które potrafią zarządzać energią, a oprogramowaniem. Pełna implementacja APM obejmuje pięć stanów, w zależności od pracy. Są to: *Full On (komputer włączony) - bez włączonych opcji oszczędzania energii * APM Enabled (włączone APM) - system jest w pełni funkcjonalny, jednak niektóre urządzenia mogą zostać wyłączone i w razie potrzeby uruchomione. * APM Standby (tryb „drzemki") - system nie pracuje, większość urządzeń jest uśpionych. Procesor może być w tym stanie albo wyłączony, albo pracować w zwolnionym tempie, jednak wszystkie jego parametry są zachowane. Możliwe jest przejście do stanu APM Enabled prawie natychmiast po przerwaniu drzemki - na przykład ruchem myszy. * APM Suspend (tryb „zatrzymania") - tryb podobny do Standby, z tym że procesor jest całkowicie wyłączony, a jego parametry są zachowane na dysku. Przebudzenie nie następuje od razu - system powoli powraca do stanu APM Enabled *Wyłączony - komputer jest całkiem wyłączony wyłącznikiem napięcia. APM wymaga zgodności i od sprzętu, i od oprogramowania. Omawiane obudowy ATX powinny być zgodne z tym standardem, choćby przez istnienie złącza Power_On. Producenci umożliwiają zaawansowane zarządzenia energią także w przypadku płyt głównych, monitorów i napędów dyskowych. Systemy operacyjne, które wspierają APM -jak Windows 9X - uzależniają stan komputera od aktywności uruchomionych programów i użytkownika. Jednak system nie odnosi się bezpośrednio do urządzeń w celu włączania poszczególnych trybów. Systemy komputerowe mogą być wzbogacane o wiele aplikacji i opcji, które sterują stanami oszczędzania energii. Wszystkie one odwołują się do odpowiednich funkcji BIOS-u. Driver (sterownik) APM oraz BIOS komunikują się pomiędzy sobą, tworząc elastyczne połączenie pomiędzy sprzętem a systemem operacyjnym.
Z tego względu standard ten musi być wbudowany w urządzenia płyty głównej, BIOS oraz system operacyjny (zawierający odpowiednie sterowniki). Bez spełnienia wszystkich tych warunków, funkcje APM nie będą działać. Jeżeli komputer będzie odmawiał poprawnej pracy przy włączonych funkcjach APM, najprostszą metodą ich zlikwidowania jest wyłączenie funkcji APM poprzez BIOS. Wyłączenie odpowiedniej opcji w BlOS-ie powoduje przerwanie łańcucha komunikacji pomiędzy urządzeniami a systemem operacyjnym, uniemożliwiając pracę systemowi APM. Choć prostszym rozwiązaniem jest zlikwidowanie odpowiedniego drivera w systemie operacyjnym, to PnP sprawi, że system Windows 9X będzie za każdym włączeniem komputera na powrót odnajdywał i instalował podsystem APM.
Problemy z zasilaczem Zbyt mało wydajny czy nieodpowiedni zasilacz może skutecznie zniweczyć wszystkie nasze nadzieje na rozbudowę komputera. Niektóre komputery są od początku wyposażone w bardzo wydajne zasilacze, zupełnie jakby producent przewidywał ich przyszłą rozbudowę. Odnosi się to do większości komputerów typu desktop czy tower. Niektóre jednak maszyny od początku mają nieodpowiedni zasilacz, co uniemożliwia opcjonalne dodawanie Urządzeń pobierających dużo energii. Problemy z zasilaczami dotyczą zwłaszcza komputerów przenośnych, ponieważ komputery te są zaprojektowane tak, aby zajmowały jak najmniej miejsca. Podobnie, wiele spośród starszych komputerów PC ma nieodpowiedni zasilacz i nie nadają się do dalszej rozbudowy. Np. oryginalny zasilacz komputera IBM PC wystarczał tylko w najbardziej podstawowej konfiguracji. Dodanie karty graficznej, dysku twardego, koprocesora arytmetycznego (8087) i 640 kB pamięci powodowało natychmiastowe „padnięcie" systemu. Właściwy dla danego komputera zasilacz może być określony na podstawie łącznego zużycie prądu przez wszystkie podzespoły komputera. Czasami mylące mogą być wartości mocy podawane przez producenta. Nie wszystkie zasilacze 200-watowe są tak samo zbudowane. Osoby mające do czynienia ze sprzętem audio wysokiej klasy wiedzą, że są zasilacze lepsze i gorsze. Tańsze zasilacze mogą mieć co prawda zadeklarowaną przez producenta wydajność, należałoby się jednak spytać o poziom szumów i zniekształceń. Niektóre zasilacze są „dopięte na ostatni guzik" i z trudem mieszczą się w deklarowanych parametrach, podczas gdy inne mogą mieć spory margines ponad podawaną wartość. Wiele spośród tańszych zasilaczy daje sygnał wyjściowy z szumami i zniekształceniami, co może stanowić przyczynę wielu problemów. Inny problem z „naciągniętymi" zasilaczami polega na wydzielaniu się w nich zbyt dużych ilości ciepła, przez co grzeje się cały komputer. Ciągłe grzanie się i stygnięcie elementów powoduje w końcu awarię komputera, a jedna z zasad mówi, że im wyższa temperatura komputera, tym krótsze jego życie. W związku z tym często zaleca się wymianę zasilacza na bardziej wydajny model, co rozwiązuje problem. W handlu są dostępne zasilacze o różnych formatach, dlatego znalezienie odpowiednie-go, wydajnego modelu dla naszego komputera nie powinno sprawić kłopotów.
Niektóre z wydajniejszych zasilaczy kupowane osobno mają większy wentylator niż oryginał, co może znacznie przedłużyć żywotność komputera i zminimalizować problemy z nadmiernym wydzielaniem ciepła, co dotyczy zwłaszcza nowszych komputerów, w których procesor ma tendencję do przegrzewania się. Jeżeli pierwotny zasilacz pracuje zbyt głośno, problem rozwiąże zasilacz ze specjalnym wentylatorem, pracującym ciszej niż standardowe modele. Tego typu wentylatory dzięki większym rozmiarom mogą obracać się wolniej, a rozprowadzają tę samą ilość powietrza, co mniejsze wentylatory. Firma PC Power and Cooling specjalizuje się w wytwarzaniu cichych i bardzo wydajnych zasilaczy. Również inna firma, Astec, ma w ofercie kilka bardzo wydajnych zasilaczy. Zasilacze Astec stanowią oryginalne wyposażenie wielu komputerów wysokiej klasy, takich jak IBM czy HewlettPackard. Istotnym czynnikiem jest wentylacja komputera. Trzeba zapewnić odpowiedni strumień powietrza, który schłodzi wszystkie grzejące się podzespoły. Większość procesorów jest obecnie wyposażona w radiatory i wymaga stałego przepływu powietrza chłodzącego procesor. Nie dotyczy to procesorów z własnym wentylatorem. Jeżeli na płycie głównej są wolne gniazda rozszerzające, to dobrze jest tak rozmieścić karty, aby po-wietrze mogło przepływać pomiędzy nimi. Najbardziej grzejące się karty umieśćmy w pobliżu wentylatora albo otworów wentylacyjnych. Upewnijmy się, że wokół dysku twardego będzie odpowiedni strumień powietrza, zwłaszcza jeżeli dysk obraca się z dużą prędkością. Niektóre dyski twarde mogą w czasie pracy wydzielać duże ilości ciepła. Jeżeli dysk się przegrzewa, następuje utrata danych. Komputer powinien mieć zawsze przykręcona pokrywę, zwłaszcza ten bardziej „przeładowany". Zdjęcie pokrywy może spowodować przegrzanie się komputera. Przy zdjętej pokrywie wentylator procesora nie kieruje strumienia powietrza na podzespoły komputera. Zamiast tego wentylator chłodzi sam zasilacz, a pozostałe elementy są chłodzone tylko przez konwekcję (unoszenie się ogrzanego powietrza na zewnątrz obudowy). Większość komputerów nie przegrzeje się natychmiast, jednak kilka z moich maszyn, zwłaszcza tych dość rozbudowanych, przegrzało się w ciągu 15-30 minut przy pracy ze zdjętą pokrywą. Jeżeli w komputerze pojawiają się problemy, o których przyczynę podejrzewamy przegrzewanie się komputera, to zazwyczaj najlepszym lekarstwem jest wymiana zasilacza na model o większej wydajności. Mogą tu pomóc również specjalnie wykonane zasilacze z dodatkowym wentylatorem. Wiem, że przynajmniej jedna firma sprzedaje karty z wentylatorem (ang.fan card), nie sądzę jednak, że kupno takiego urządzenia to dobry pomysł. Strumień powietrza z dodatkowego wentylatora nie zostanie skierowany tak, aby wydmuchiwał powietrze na zewnątrz albo do środka obudowy; cała jego praca sprowadzi się do rozdmuchiwania gorącego powietrza wewnątrz komputera, powodując tylko lokalny efekt chłodzący. Dodatkowy wentylator przyczynia się nawet do wzrostu temperatury wewnątrz komputera, bo jak każdy wentylator pobiera energię i emituje ciepło. Wyjątkiem od tej reguły jest wentylator umieszczony na procesorze, ponieważ jest on przeznaczony tylko do lokalnego chłodzenia procesora. Wiele spośród nowoczesnych procesorów grzeje się w znacznie większym stopniu niż pozostałe elementy komputera, tak że zwykły aluminiowy radiator nie spełnia tu swojej roli. W takim przypadku dodatkowe chłodzenie procesora można osiągnąć stosując mały wiatraczek umieszczony bezpośrednio na procesorze, który obniża jego temperaturę.
Jego wadą jest natychmiastowe przegrzanie się, a nawet uszkodzenie procesora w przypadku awarii wentylatora. O ile to możliwe, staram się zawsze korzystać z największych dostępnych radiatorów (z aluminiowymi żeberkami) i unikam stosowania dodatkowych wentylatorów. Jeżeli zakleimy otwory wentylacyjne na spodzie obudowy oryginalnego komputera IBM PC, zaczynające się pod przestrzenią napędów dyskowych i ciągnące się do prawej strony obudowy, to możemy obniżyć temperaturę wewnątrz komputera o jakieś 10-20 stopni, co jest niezłym rezultatem jak na kawałek taśmy klejącej wartej dwa centy! Firma IBM sprzedawała komputery XT i XT-286 z obudowami uszczelnionymi w ten sposób. W rezultacie podnoszą się parametry aerodynamiczne wewnątrz komputera i strumień powietrza opływa najbardziej grzejące się pod-zespoły. Wskazówka ta nie dotyczy innych komputerów PC, których obudowa może się różnić fizycznie od obudowy IBM PC. Bez względu na to, jaki mamy komputer, należy się upewnić, że wszystkie puste otwory w obudowie są zasłonięte odpowiednimi zaślepkami. Jeżeli po wyjęciu karty rozszerzającej zostawimy puste otwory, to otwór może się przyczynić do zakłócenia wewnętrznego strumienia powietrza i może spowodować wzrost temperatury wewnątrz komputera.
Rozwiązywanie problemów z zasilaczem Rozwiązywanie problemów z zasilaczem polega zwykle na odizolowaniu od komputera zasilacza jako przyczyny problemu. Nie zaleca się raczej otwierania zasilacza i jego naprawiania z powodu niebezpiecznych wysokich napięć wewnątrz zasilacza. Działanie wewnątrz zasilacza wykracza poza zakres tej książki i nie jest zalecane, chyba że użytkownik ma odpowiednie przygotowanie techniczne i wie, co robi. Awarię zasilacza w komputerze można rozpoznać ze względu na kilka towarzyszących jej objawów. Zauważenie ich przez niezbyt doświadczonego użytkownika może być czasami trudne, ponieważ powiązanie przyczyny - awarii zasilacza - z objawem nie zawsze jest oczywiste. Często błędy parzystości i pokrewne wskazują na problem z zasilaczem. Może się to wydawać dziwne, ponieważ błąd parzystości zwykle oznacza problemy z pamięcią RAM. Związek jest jednak taki: zasilacz zasila układy pamięci, a te - niewłaściwie zasilane - pracują niepoprawnie. Rozpoznanie, które z błędów są związane z modułami pamięci, a które z zasilaczem, wymaga pewnego doświadczenia. Wskazówką może być powtarzanie się problemu. Jeżeli komunikat o błędzie parzystości (lub podobny) pojawia się często i za każdym razem wskazuje na ten sam adres w pamięci, to zachodzi podejrzenie, że przyczyna niesprawności tkwi w pamięci. Jeżeli jednak problem pojawia się w losowych odstępach czasu, to przyczyną może być zasilacz. Oto lista problemów, które często mają związek z zasilaczem:
* dowolnego rodzaju błędy albo zawieszanie się komputera przy starcie * komputer jest nieregularnie resetowany albo zawiesza się w czasie normalnej pracy *
nieregularnie pojawiają się błędy parzystości i inne błędy pamięci
*
jednoczesne ustanie pracy dysku twardego i wentylatora
*
przegrzanie się komputera spowodowane niesprawnością wentylatora
*
niewielkie spadki napięcia sieciowego powodują reset komputera
*
obudowa lub złącze komputera „kopie"
*
niewielkie wyładowania elektryczne przerywają pracę komputera
Powodem każdego problemu pojawiającego się nieregularnie może być zasilacz. Zawsze podejrzewam zasilacz jako przyczynę awarii, jeżeli objawem jest „szarpana" praca komputera. Także poniższe objawy dość jednoznacznie wskazują na zasilacz jako przyczynę problemu: * komputer jest całkiem „martwy" (nie działa wentylator, nie miga kursor) * dym * przepalenie bezpieczników instalacji elektrycznej Jeżeli podejrzewamy, że przyczyną problemu jest zasilacz, to pomogą nam się o tym upewnić proste pomiary i testy, opisane w kolejnym podrozdziale. Pomiary te mogą jednak zawodzić w przypadku niektórych problemów pojawiających się nieregularnie, dlatego wskazane byłoby przeprowadzenie testu trwającego dłużej, z wykorzystaniem zapasowego zasilacza. Jeżeli niepokojące objawy znikają, kiedy w komputerze jest zasilacz, o którym wiadomo, że jest sprawny, to znaleźliśmy źródło problemu.
Multimetry cyfrowe Prosty test zasilacza mógłby polegać na sprawdzeniu jego napięć wyjściowych. W ten sposób można sprawdzić, czy zasilacz pracuje poprawnie i czy wartości napięć wyjściowych mieszczą się w dopuszczalnym przedziale. Zwróćmy uwagę, że wszystkie pomiary napięć muszą być wykonywane przy dołączeniu do zasilacza odpowiedniego obciążenia, co oznacza zazwyczaj test zasilacza dołączonego do komputera.
Wybór przyrządu pomiarowego Do przeprowadzenia pomiarów napięcia czy rezystancji potrzebny nam będzie prosty multimetr cyfrowy (ang. Digital Multi-Meter, DMM) albo cyfrowy miernik uniwersalny z omomierzem i woltomierzem (ang. Digital Volt-Ohm Meter, DVOM)
Pownniśmy raczej stosować miernik cyfrowy, a nie miernik wskazówkowy starszego typu, ponieważ w starszych miernikach wskazówkowych przy pomiarze rezystancji końcówki miernika są pod napięciem 9 V. Napięcie to, przedostając się do obwodu, spowodowałoby uszkodzenie układów komputera. Przyrząd typu DMM do pomiarów rezystancji wykorzystuje napięcie o dużo mniejszej wartości (zazwyczaj 1,5 V), co jest bezpieczne dla układów elektronicznych. W dobry miernik można się zaopatrzyć w wielu sklepach oferujących mierniki różnego typu. Do pracy z komputerem wolę mały, kieszonkowy miernik, ponieważ mogę go łatwo zabrać ze sobą. Oto niektóre cechy, które powinien posiadać dobry multimetr: * Kieszonkowy rozmiar. Jest to dość oczywiste, warto jednak wspomnieć, że w sprzedaży są dostępne małych rozmiarów mierniki posiadające większość albo i wszystkie funkcje dużych przyrządów. Skomplikowane funkcje, spotykane w niektórych dużych miernikach, nie przydają się przy testowaniu zasilacza. *Zabezpieczenie prądowe. Podłączenie miernika do źródła napięcia czy prądu o wartości przewyższającej skalę pomiarową nie spowoduje uszkodzenia przyrządu. Tańsze mierniki są pozbawione tej funkcji i można je łatwo uszkodzić przez próbę odczytu zbyt wysokiej wartości prądu czy napięcia. *Automatyczna zmiana skali. Miernik automatycznie dostraja się do wartości mierzonego napięcia czy prądu. Jest to lepsze niż ręczna zmiana skali przyrządu. Jednak dopiero naprawdę dobre mierniki oferują zarówno automatyczne .*Odczepiane końcówki miernika. Końcówki pomiarowe przyrządu można łatwo uszkodzić, a do różnych rodzajów testów potrzebne są czasami końcówki różnego kształtu. Tańsze mierniki mają końcówki przytwierdzone na stałe, co uniemożliwia ich wymianę. Rozejrzyjmy się więc za miernikiem wyposażonym w odczepiane końcówki. * Dźwiękowa sygnalizacja przewodzenia prądu. Do sprawdzenia przewodzenia prądu można posłużyć się omomierzem (O omów oznacza przewodzenie), jednak dodatkowa funkcja sygnalizuje za pomocą dźwięku przewodzenie prądu od jednej końcówki miernika do drugiej. Funkcja ta pozwala na szybkie testowanie snopów kabli i innych przewodników. Jeżeli raz posłużymy się funkcją sygnalizacji dźwiękowej, to nigdy już nie będziemy chcieli sprawdzać przewodzenia prądu za pomocą skali omomierza. * Automatyczny wyłącznik zasilania. Mierniki są zasilane z baterii, a baterie mają to do siebie, że łatwo się wyczerpują, jeżeli przypadkowo pozostawimy przyrząd włączony. Dobre mierniki mają funkcję, która automatycznie wyłącza miernik, jeżeli przez pewien czas nie był wykonywany żaden pomiar. * Automatyczne podtrzymywanie odczytywanych wartości. Funkcja ta pozwala na zachowanie na wyświetlaczu wyniku ostatniego pomiaru, nawet po jego za-kończeniu. Opcja ta jest szczególnie użyteczna, jeżeli punkty pomiarowe są trudno dostępne i posługujemy się miernikiem trzymanym jedną ręką. * Zapamiętywanie minimum i maksimum pomiarowego. Ta funkcja pozwala na zapamiętanie najmniejszej i największej wartości pomiarowej i wyświetlenie jej w późniejszym czasie. Jest ona użyteczna, zwłaszcza gdy wyniki pomiarów zmieniają się zbyt szybko. Prosty multimetr kieszonkowy można dostać za ok. $30, jednak przyrząd wyposażony we wszystkie opisywane funkcje kosztuje około $200. Dość niedrogie i funkcjonalne mierniki można kupić (w USA) w sklepach Radio Shack, natomiast w modele wyższej klasy można się zaopatrzyć w sklepach z częściami elektronicznymi, takimi jak Allied, Newark czy Digi-Key.
Pomiar napięcia Do pomiarów w pracującym komputerze będziemy musieli skorzystać z techniki zwanej back probing (dosł. „mierzenie od tyłu"). W pracującym komputerze nie możemy odłączyć żadnego przewodu, a pomiarów musimy dokonywać przy dołączonych wszystkich pod-zespołach. Prawie wszystkie złącza, które będziemy chcieli badać, mają w miejscach połączenia styku z drutem luźne szpary. Końcówki pomiarowe miernika są na tyle cienkie, że wejdą wzdłuż przewodów do tych otworów i zetkną się z metalowymi końcówkami wewnątrz wtyczki. Technika ta nosi nazwę „pomiaru od tyłu", ponieważ końcówki miernika przykładamy z tyłu wtyczki. Praktycznie wszystkie opisane dalej pomiary muszą być wykonywane w ten sposób. Aby sprawdzić poprawność napięć wyjściowych zasilacza, sprawdzamy najpierw na-pięcie na końcówce Power_Good (w większości zasilaczy komputerów kompatybilnych z IBM jest to końcówka P8-1), na której powinno być napięcie od +3 V do +6 V. Jeżeli wynik pomiaru nie mieści się w tych granicach, to komputer, nie widząc sygnału Power_Good, nie wystartuje albo nie będzie pracował prawidłowo. W większości przypadków oznacza to awarię zasilacza i konieczność jego wymiany. W dalszej kolejności mierzymy napięcia na końcówkach złącza zasilania płyty głównej i dysków:
Nominalna Wartość wartość minimalna napięcia napięcia (większa
Wartość maksymalna napięcia (mniejsza
Wartość minimalna napięcia (tolerancja
+3,3 V
2,97 V
3,63 V
3,135 V
3,465 V
+/-5,OV
4,5 V
5,4 V
4,75 V
5,25 V
12,9 V
11,4 V
12,6 V
+/-12,OV 10,8 V
-
Wartość maksymalna napięcia (tolerancja 5%)
Jeżeli mierzone napięcie wykracza poza ten zakres, to należy wymienić zasilacz. Jak już wspomniałem, wszystkie pomiary i testy napięcia zasilania powinny być wykonywane przy zasilaczu odpowiednio obciążonym, co oznacza zwykle, że zasilacz musi być do-łączony do komputera, a komputer musi pracować.
Specjalistyczne przyrządy testowe Do przeprowadzenia bardziej efektywnych testów można skorzystać z kilku specjalizowanych przyrządów testowych. Zasilacz jest chyba najbardziej podatnym na awarie podzespołem komputera PC, dlatego jeżeli mamy do czynienia z wieloma komputerami PC, to dobrze jest zaopatrzyć się w różne przyrządy specjalizowane. Rezystory obciążające do „warsztatowego" testowania zasilacza. Testy zasilacza wyizolowanego z komputera wymagają specjalnego przygotowania, ponieważ prawie wszystkie zasilacze komputerów PC wymagają obciążenia do poprawnej pracy. Informację o tym, jak samodzielnie zbudować drabinkę rezystorów, można znaleźć na płycie CD dostarczanej wraz z książką. Transformatory o regulowanym napięciu wyjściowym. W czasie testowania zasilacza powinniśmy zasymulować różne poziomy napięć w gniazdku ściennym i obserwować reakcję zasilacza. Transformator o regulowanym napięciu wyjściowym jest użytecznym przyrządem w tym przypadku, ponieważ umożliwia regulację napięcia zmiennego, które jest wejściowym napięciem zasilacza (zob. rysunek 8.11). Urządzenie to składa się z dużego transformatora, zamontowanego w obudowie z pokrętłem ustalającym poziom napięcia wyjściowego. Wtyczkę przewodu transformatora wkładamy do gniazdka, a kabel zasilający komputera dołączamy do gniazdka w transformatorze.
Za pomocą gałki na transformatorze regulujemy wartość napięcia doprowadzanego do komputera. Rysunek 8.11. Transformator o regulowanym napięciu wyjściowym
Większość reguloanych transformatorów pozwala na regulację napięcia wyjściowego w zakresie od O do 140 V (w USA), bez względu na poziom napięcia w gniazdku sieciowym. Niektóre transformatory pozwalają również na wysterowanie obciążenia napięciem w zakresie od O V do 280 V (tylko takie transformatory miałyby zastosowanie w Polsce przyp. tłum.). Transformatora takiego możemy użyć do symulowania spadków napięcia w sieci i obserwować, jak reaguje na nie komputer. W ten sposób możemy m.in. sprawdzić poprawne działanie sygnału Power_Good. Gdy przy włączonym komputerze zmniejszamy napięcie z transformatora do poziomu, przy którym komputer się wyłączy, to możemy określić rezerwę zasilacza, jaką dysponuje on na wypadek spadków czy fluktuacji napięcia. Jeżeli transformator może również dostarczać napięcie wyjściowe rzędu 200 V, to możemy przetestować zdolność pracy zasilacza z napięciem innym niż 110 V. Prawidłowo działający zasilacz powinien pracować przy napięciu sieciowym w granicach od 180 do 274 V, a wyłączać się, jeżeli napięcie wejściowe nie mieści się w tym przedziale. Symptomem pojawienia się problemu jest pojawienie się komunikatu o błędzie parzystości, gdy obniżymy napięcie do 80 V (dla sieci 110 V - przyp. tłum.). Oznacza to, że sygnał Power_Good nie został zniesiony przed obniżeniem się napięcia wyjściowego zasilacza. Kiedy sygnał Power_Good przybiera niski poziom, to komputer powinien zacząć wykonywać pętle reset procesora. Transformatory o regulowanym napięciu wyjściowym można znaleźć w ofercie sklepów takich jak Allied, Newark czy Digi-Key. Urządzenia te powinny kosztować w granicach od 100 do 200 dolarów.
Naprawa zasilacza Naprawa zasilacza jest rzadko wykonywana, przede wszystkim dlatego, że zwykle taniej jest wymienić zasilacz na nowy. Nawet zasilacze wysokiej klasy nie są tak drogie, jak praca potrzebna do ich naprawy. Zepsuty zasilacz zwykle się wyrzuca, chyba że jest to jeden z modeli wysokiej klasy albo należący do bardziej kosztownych. W takim przypadku rozsądnie jest wysłać zasilacz firmie specjalizującej się w naprawianiu zasilaczy czy innych podzespołów. Procedura naprawy polega na wysłaniu zasilacza do firmy naprawczej, która po jego naprawie od-syła go nam z powrotem.
Jeżeli zależy nam na czasie, to firma może natychmiast nam odesłać działający odpowiednik naszego zasilacza, biorąc wadliwy zasilacz w zastaw. Tego typu naprawę zaleca się wtedy, gdy zepsute są takie urządzenia jak zasilacze, monitory czy drukarki. Jeżeli oddamy komputer do tradycyjnego serwisu, to punkt serw-sowy najczęściej określi tylko przyczynę awarii i odeśle wadliwy zasilacz do naprawy innej firmie. Czynność tę możemy wykonać samodzielnie i zaoszczędzić w ten sposób dodatkową kwotę pieniędzy, którą pobrałby dodatkowo serwisant. Osoby mające doświadczenie w zakresie pracy z wysokimi napięciami mogą spróbować samodzielnie naprawić zasilacz. Można tego dokonać poprzez dwie stosunkowo proste czynności, wymagające jednak otwarcia zasilacza. Nie proponuję nikomu naprawy zasilacza, jedynie uważam, że czasami może być to alternatywą dla jego wymiany. Większość producentów próbuje utrudnić otwarcie zasilacza przez zaplombowanie go w tym celu za pomocą specjalnych śrub, „odpornych" na majsterkowanie. Do ich wykręcania nadawałby się popularny śrubokręt krzyżakowy, jednak specjalne końce śrub uniemożliwiają odkręcenie zwykłym śrubokrętem. Większość firm handlujących narzędziami, np. Jensen albo Specialized (w USA - przyp. tłum.) sprzedaje zestawy narzędzi radzące sobie z tego rodzaju śrubami. Inni producenci przynitowują pokrywę zasilacza, a do usunięcia nitów trzeba użyć wiertarki. Wszystkie te utrudnienia mają na celu zabezpieczenie zasilacza przed dostępem do niego osobom niedoświadczonym w serwisowaniu urządzeń pracujących z wysokimi napięciami. Użytkownik, który mimo tych uwag zechce majsterkować przy zasilaczu, robi to na własne ryzyko. Większość zasilaczy ma wbudowany wewnętrzny bezpiecznik stanowiący część zabezpieczenia prądowego. Jeżeli bezpiecznik jest przepalony, to zasilacz nie będzie działał. Po otwarciu zasilacza można wymienić spalony bezpiecznik na nowy. Trzeba mieć jednak świadomość, że jeżeli wewnętrzna niesprawność zasilacza powoduje przepalenie bezpiecznika, to w większości przypadków po wymianie bezpiecznik może znowu zostać spalony, o ile nie usunie się przyczyny powstawania awarii. Wówczas lepiej będzie odesłać zasilacz do naprawy. Listę firm przeprowadzających wysyłkowo naprawy zasilaczy i innych podzespołów można znaleźć na końcu książki (dotyczy USA - przyp. tłum.). Zasilacze komputerów PC mają wewnętrzny regulator napięcia służący do kalibracji zasilacza na etapie produkcji. W czasie eksploatacji mogą ulec zmianie parametry niektórych podzespołów zasilacza, powodując zmianę napięcia wyjściowego. Napięcie wyjściowe można wówczas wyregulować, kręcąc w tym celu regulatorem napięcia wewnątrz zasilacza. W zasilaczu można znaleźć kilka elementów służących do regulacji - zazwyczaj są to niewielkie potencjometry, które ustawia się za pomocą śrubokręta. Należy używać narzędzia z tworzyw, które nie przewodzą prądu, np. z włókna szklanego czy plastiku. Gdybyśmy włożyli metalowy śrubokręt do wnętrza zasilacza pod napięciem, mogłoby to wywołać snop iskier, narażając nas na ryzyko porażenia prądem i zniszczenie zasilacza. Musimy ustalić, które regulatory służą do wspólnej regulacji poziomu napięcia, a które do regulacji poszczególnych napięć wyjściowych. Wymaga jednak zastosowania metody prób i błędów. Możemy zaznaczyć początkowe ustawienie wszystkich rezystorów, następnie rozpocząć pomiar danego napięcia i delikatnie kręcić wszystkimi po kolei pokrętłami, aż nastąpi zmiana napięcia. Jeżeli po przekręceniu regulatora nic się nie zmieni, to przywracamy jego pierwotne położenie. W ten sposób zlokalizujemy i odpowiednio dostroimy wszystkie napięcia do standardowych poziomów 5 V i 12 V.
Wymiana zasilacza w komputerze Czasami jest po prostu łatwiej, taniej i bezpieczniej (biorąc pod uwagę czas i potrzebne części) wymienić zasilacz na nowy niż go naprawiać. Jak już była mowa wcześniej, nowe zasilacze są dostępne u wielu producentów. Zanim jednak pójdziemy do sklepu kupić zasilacz, rozważmy kilka ważnych faktów.
Wybór zasilacza Decydując się na nowy zasilacz, powinniśmy wziąć pod uwagę kilka spraw. Po pierwsze, należy uwzględnić kształt i format zasilacza. Np. zasilacz komputera IBM różni się fizycznie od zasilaczy stosowanych w komputerach PC czy XT. Z tego względu zasilacze AT i PC/XT nie mogą być stosowane zamiennie. Zasilacze mogą się różnić rozmiarem, kształtem, rozmieszczeniem otworów na śruby, rodzajem i liczbą wtyczek oraz umiejscowieniem włącznika. Komputery, akceptujące ten sam format, mogą korzystać z jednakowego zasilacza. Producenci komputerów szybko zdali sobie sprawę z tego faktu i zaczęli wytwarzać komputery naśladujące PC/AT, z uwzględnieniem konfiguracji i lokalizacji płyty głównej oraz zasilacza. W miarę rozwoju rynku klonów, popularność zaczęły zdobywać cztery typy zasilaczy: AT/Tower, BabyAT, Slimline (LPX) i PC/XT. Dany zasilacz można łatwo wymienić na zasilacz tego samego formatu. We wcześniejszej części tego rozdziału znajduje się kompletny opis formatów zasilaczy. Przy kupnie zasilacza powinniśmy wiedzieć, jakiego typu zasilacz jest akceptowany w naszym komputerze. W wielu komputerach wykorzystuje się zasilacze, które są rozwiązaniami firmowymi ich producentów, co utrudnia ewentualną wymianę. Firma IBM w komputerach PS/2 stosuje różne rodzaje zasilaczy, niezbyt ze sobą kompatybilnych. Niektóre spośród nich mogą być stosowane zamiennie, zwłaszcza w komputerach z taką samą obudową, np. Model 60, 65 i 80. Dla komputerów tych jest dostępnych kilka rodzajów zasilaczy o różnych mocach wyjściowych, w tym zasilacze 207, 225, 242 i 250-watowe. Najsilniejsze, 250-watowe zasilacze były oryginalnie wyposażeniem komputerów Model 65 SX i nowszych wersji komputerów Model 80, chociaż znakomicie pasują do wszystkich komputerów Model 60, 65 czy 80. Potencjalnym czynnikiem ryzyka, związanym z używaniem niestandardowych komputerów PC, jest niestandardowy format zasilacza. Jeżeli zasilacz w komputerze jest standardowego formatu, to do takiego komputera pasują nowe modele zasilaczy, produkowane przez setki firm. Pechowy użytkownik komputera z niestandardowym zasilaczem nie ma możliwości takiego wyboru i jest skazany na zakup zasilacza u producenta komputera, za który musi zazwyczaj zapłacić mnóstwo pieniędzy. Zasilacze formatu LPX można kupić już za $50, jednak firmowe zasilacze niektórych producentów mogą kosztować nawet $400 albo i więcej. Osoby kupujące komputer PC często nie zwracają uwagi na ten fakt i o konsekwencjach wynikających z obecności w komputerze niestandardowego zasilacza przekonują się na ogół zbyt późno. Przykładem komputerów kompatybilnych z IBM z firmowym zasilaczem są komputery firmy Compaq. Żaden z komputerów Compaq nie wykorzystuje zasilacza takiego jak komputery IBM, co oznacza, że jedynym źródłem nowych zasilaczy jest firma Compaq. Jeżeli „wysiądzie" zasilacz w komputerze Compaq Deskpro, to za nowy zasilacz przyjdzie nam zapłacić $395, przy czym nowy zasilacz nie będzie ani lepszy, ani cichszy od dotychczasowego. Mamy tu niewielką swobodą manewru, ponieważ oprócz firmy Compaą prawie żadna inna firma nie produkuje zasilaczy w formacie Compaq. Wyjątkiem jest firma PC Power and Cooling, która sprzedaje doskonałe zasilacze pasujące do wcześniejszych komputerów serii Compaq Portable i Compaq Deskpro.
Zasilacze te mają większą moc wyjściową niż oryginalne zasilacze Compaq, kosztując przy tym o wiele mniej.
Gdzie można zdobyć nowy zasilacz? Jednym z najbardziej narażonych na awarie podzespołów w komputerze jest zasilacz, dlatego użytkownicy często zwracają się do mnie z pytaniem, czy nie trzeba wymienić zasilacza w komputerze na lepszy. Zasilacze PC są produkowane przez setki firm i oczywiście nie przetestowałem wszystkich z nich. Mogę jednak polecić zakup zasilaczy paru firm, które zdołałem poznać i o których wiem, że są godne zaufania. Chociaż na rynku działa wielu producentów zasilaczy wysokiej klasy, to tym razem polecę tylko dwie firmy. Są nimi Astec Standard Power i PC Power and Cooling. Astec produkuje zasilacze wykorzystywane w większości komputerów wysokiej klasy, takich jak IBM, Hewlett Packard, Apple i inne markowe komputery. Zasilacze tej firmy są dostępne w wielu standardowych formatach (AT/Tower, Baby-AT i Slimline) a także o różnych mocach wyjściowych. Firma ta produkuje również zasilacze o mocach wyjściowych do 300 watów, a także specjalne zasilacze do komputerów oszczędzających energię (,,Green PCs"), które spełniają wymagania programu EPA Energy Star. Zasila-cze te są tak zaprojektowane, aby pozwalały na osiągnięcie wysokiej wydajności przy niewielkim obciążeniu. Miejmy świadomość, że zasilacze o dużej mocy innych produ-centów mogą sprawiać problemy przy pracy ze zbyt małym obciążeniem. Firma Astec produkuje także różne zasilacze przeznaczone dla komputerów PC typu laptop czy notebook oraz liczne modele zasilaczy do komputerów innych niż „Pecety", Firma PC Power and Cooling oferuje najbardziej kompletną serię zasilaczy, przeznaczonych do współpracy ze wszystkimi komputerami PC. Firma ta produkuje zasilacze we wszystkich standardowych formatach stosowanych obecnie (AT/Tower, Baby-AT, Slimline, PC/XT). Dostępne są zasilacze różnej jakości i o różnej mocy wyjściowej, począwszy od niedrogich zasilaczy, które można stosować jako modele zstępujące stary zasilacz, aż do wysokiej klasy modeli o dużej mocy wyjściowej - aż do 450 W. Dostępne są nawet modele z wbudowanym awaryjnym zasilaniem bateryjnym, a także seria specjalizowanych modeli z wentylatorami dużego rozmiaru, obracającymi się wolno i bezgłośnie. Modele te będą szczególnie pożądane przez tych użytkowników, którzy nie mogą ścierpieć hałasu generowanego przez niektóre wentylatory. Firma PC Power and Cooling oferuje również zasilacze zastępujące niektóre z firmowych modeli Compaq. Takie rozwiązanie może się okazać prawdziwym dobrodziejstwem, kiedy przyjdzie nam wymienić zasilacz w komputerze Compaq. Zasilacze firmy PC Power and Cooling są zasilaczami o większej mocy wyjściowej niż oryginalne modele Compaq. Kosztują przy tym znacznie mniej, w związku z czym z powodzeniem mogą zastępować w komputerze stary zasilacz. Firma PC Power and Cooling zapewnia również doskonałą pomoc techniczną. Warto wspomnieć, że firma ta jest obecna na rynku już dość długo, co należy do rzadkości w branży. Oprócz zasilaczy, firma PC Power and Cooling oferuje również doskonałe obudowy. Zasilacz wysokiej klasy pochodzący od jednego z wyżej wymienionych producentów jest jednym z najlepszych lekarstw na różne problemy, pojawiające się nieregularnie w komputerze. Zapewnia także, że przez długi czas będziemy mogli się cieszyć bezawaryjną pracą naszego komputera.
Systemy zabezpieczające zasilanie Systemy zabezpieczające zasilanie, zgodnie z nazwą, zabezpieczają sprzęt komputerowy przed skutkami skoków napięcia i przerw w dostawie prądu. Skoki i szpilki napięciowe mogą spowodować zniszczenie sprzętu, a spadki napięcia mogą powodować utratę danych. W tym podrozdziale omówimy cztery podstawowe typy urządzeń zabezpieczających zasilanie oraz wymienimy przypadki, w jakich należy je stosować.
Przed zastosowaniem dodatkowego poziomu zabezpieczeń powinniśmy uzmysłowić sobie, że sam zasilacz komputera (o ile jest to dobry komputer) oferuje spory poziom zabezpieczeń. Zasilacze wysokiej klasy, pochodzące od jednego z polecanych przez mnie w tym rozdziale producentów, zabezpieczają przed wyższymi niż przewidziane prądami i napięciami, a także filtrują w pewnym stopniu napięcie sieciowe. Niektóre z tańszych modeli innych producentów nie mają prawdopodobnie aż tylu zabezpieczeń. Należy więc zachować ostrożność, jeżeli mamy do czynienia z takim komputerem. Rozsądnie byłoby pomyśleć wtedy o dodatkowych formach zabezpieczenia. Wszystkie metody zabezpieczeń opisane w tym rozdziale, a także systemy zabezpieczające wbudowane w zasilacze wymagają obecności linii uziemiającej. Wiele starszych domów nie ma trójprzewodowej instalacji elektrycznej (gniazdka z bolcem), przystosowanej do urządzeń z linią uziemiającą. Podłączając do prądu tłumiki, UPS-y czy komputer, nie powinniśmy stosować rozgałęziaczy z gniazdkami z bolcem podłączanych do gniazdka bez bolca. Gniazdka takie mogą nie zapewnić uziemienia obwodu i będą przeszkadzać urządzeniom zabezpieczającym. Może się czasem zdarzyć, że gniazdko, pomimo wyposażenia go w 3 styki, co sugeruje uziemienie, w rzeczywistości nie jest uziemione -z powodu braku połączenia w jego wnętrzu. Dobrze jest więc przetestować takie gniazdko, zanim się do niego podłączy komputer. Zasilacz komputera powinien pracować zgodnie ze swoją specyfikacją i zasilać przez cały czas komputer, nawet jeżeli wystąpi jedno z poniższych zdarzeń (dla sieci 110 V -przyp. tłumacza): * Spadek napięcia do 80 V, trwający do 2 sekund Spadek napięcia do 70 V, trwający do 0,5 sekundy Wzrost napięcia do 143 V, trwający do l sekundy Firma IBM twierdzi, że żaden z jej zasilaczy i komputerów nie zostanie uszkodzony przy zajściu następujących zdarzeń: * Ciągły pobór mocy o maksymalnej wartości * Dowolny spadek napięcia *
Szpilki napięciowe do 2500 V
Np. dokumentacja komputerów IBM PS/2 utrzymuje, że zasilacze wysokiej klasy, stosowane w komputerach PS/2, nie wymagaj ą dodatkowych tłumików napięcia. Większość po-zostałych producentów markowych komputerów również stosuje zasilacze wysokiej klasy. Zasilacze te produkują firmy takie jak Astec, PC Power and Cooling i inne. Aby sprawdzić poziom zabezpieczeń, w jaki został wyposażony zasilacz w komputerze, powołano niezależne laboratorium, w którym poddaje się komputery PC, nie zabezpieczone w żaden dodatkowy sposób, różnym skokom i szpilkom napięcia dochodzącym do 6000 V - największego napięcia, jakie może być przesłane przez instalację elektryczną do gniazdka. Każda wyższa wartość napięcia wywoła w gniazdku łuk elektryczny zwierający fazę z zerem. Godne uwagi jest to, że żaden z komputerów w czasie testu nie doznał uszkodzenia. Najgorszą rzeczą, jaka się zdarzyła, było wyłączenie albo restartowanie niektórych komputerów, gdy napięcie przekroczyło wartość 2000 V. Wyłączenie i włączenie zasilania spowodowało zrestartowanie komputerów. Nie stosuję żadnej formy zabezpieczenia zasilania swoich komputerów i jak dotąd przetrwały one nawet bliskie uderzenia pioruna i duże skoki napięcia. Ostatnio zdarzyło się to zaledwie 50 stóp od mojego biura, gdy uderzenie pioruna spowodowało uszkodzenie czubka ceglanego komina.
Żaden z komputerów pracujących w tym czasie nie został uszkodzony, komputery po prostu wyłączały się. Mogłem zrestartować wszystkie komputery wyłączając i włączając je. Zniszczeniu uległ natomiast alarm przeciwpożarowy, znajdujący się w tym samym biurze. Nie twierdzę wcale, że uderzenia pioruna albo nawet wyładowania czy skoki napięcia o dużo mniejszej wartości nie są w stanie zniszczyć komputera - inne pobliskie uderzenie pioruna spowodowało zniszczenie modemu i karty portu szeregowego w jednym z komputerów. Miałem po prostu szczęście, że zniszczeniu nie uległa płyta główna. Dochodzimy tu do częstego niedopatrzenia przy zabezpieczaniu komputera: zabezpieczając komputer przed niebezpiecznymi zjawiskami elektrycznymi, nie powinniśmy zapomnieć o zabezpieczeniu linii telefonicznej. Automatyczne awaryjne wyłączenie komputera jest funkcją, w którą jest wyposażona większość zasilaczy wysokiej klasy. Zasilacz można zresetować wyłączając i włączając go. Niektóre zasilacze, np. w komputerach PS/2, mają funkcję automatycznego restartu. W sytuacji znacznego skoku napięcia czy szpilki napięciowej zasilacz ten zachowuje się podobnie jak inne: wyłącza siebie i cały komputer. Różnica polega na tym, że po przywróceniu napięcia do normalnego poziomu zasilacz czeka od trzech do sześciu sekund, a następnie restartuje siebie i komputer. Funkcja ta jest pożądana w komputerach pracujących jako sieciowe serwery plików czy innych komputerach pracujących bez ingerencji użytkownika, ponieważ do zrestartowania komputera nie jest wymagana interwencja człowieka. Kiedy po raz pierwszy byłem świadkiem dużego spadku napięcia, który spowodował natychmiastowe wyłączenie wszystkich komputerów, byłem bardzo zaskoczony. Wszystkie komputery „milczały", jednak monitory były włączone i świeciły się diody modemów. Pierwszą myślą, jaka mi przyszła do głowy, było przypuszczenie, że komputery uległy zniszczeniu, jednak proste wyłączenie i włączenie zasilania spowodowało restart zasilaczy i komputery „podniosły się" bez żadnych problemów. Od tego czasu podobne wyłączenie komputera zdarzało mi się wielokrotnie i zawsze obywało się bez większych problemów. W kolejnych podrozdziałach zostaną omówione następujące rodzaje zabezpieczeń zasilaczy: * dławiki (ang. surge surpressers) * zasilacze awaryjne pracujące przy zaniku napięcia sieciowego (ang. standby power supplies, SPS) * zasilacze awaryjne pracujące ciągle (uninterruptible power supplies, UPS) * urządzenia formujące napięcie
Dławiki Najprostszą formą systemu zabezpieczającego jest dowolny z dostępnych w handlu dławików napięciowych - urządzeń podłączanych pomiędzy komputerem a gniazdkiem sieciowym. Urządzenia te, kosztujące od 20 do 200 dolarów, mogą absorbować efekty uderzeń piorunów czy pracy sprzętu elektrycznego. Niektóre dławiki stanowią efektywne rozwiązanie części problemów z zasilaniem, jednak oferują tylko ograniczony poziom zabezpieczenia. Dławiki wykorzystuj ą różnego typu urządzenia blokujące, zazwyczaj są nimi warystory z tlenków metali (metal-oxide varistirs, MOVs), które mają zdolność blokowania sygnałów o napięciu przekraczającym pewien poziom. Warystory mogą pracować przy napięciu dochodzącym do 6000 V, a napięcia powyżej 400 V kierują do ziemi. Przyrządy te reagują na skoki napięcia mieszczące się w pewnych granicach, natomiast olbrzymie skoki, spowodowane bezpośrednim uderzeniem pioruna, mogą spalić dławik. Warystory nie są przystosowane do współpracy z bardzo wysokimi mocami i ulegają samozniszczeniu przy dużych skokach napięcia. Warystory przestają działać albo po pojedynczym skoku napięcia, albo po serii mniejszych skoków. Prawdziwym problemem jest w ich przypadku niemożliwość stwierdzenia, kiedy urządzenie jest już niesprawne. Jedynym sposobem przetestowania urządzenia jest przyłożenie dużego skoku napięcia, które spowoduje zniszczenie dławika. Dlatego nigdy tak naprawdę nie wiemy, czy dławik rzeczywiście zabezpiecza nasz zasilacz. Niektóre dławiki mają diody informujące o pojawieniu się skoków napięciowych na tyle dużych, że spowodowały przepalenie urządzenia. Dławik pozbawiony diod jest bezużyteczny, ponieważ nigdy nie wiadomo, czy w danym momencie jeszcze chroni zasilacz. Firma Underwriters Laboratory opracowała doskonały standard dławików, znany jako UL 1449. Każdy dławik zgodny z tym standardem jest bardzo dobry i oferuje dodatkowy stopień ochrony ponad to, co gwarantuje standardowo zasilacz komputera. W związku z tym warto kupować tylko te dławiki, które mają następujące cechy: * Zgodność ze standardem UL 1449 ** Diody statusowe informujące o przepaleniu się przyrządu Urządzenia zgodne ze standardem UL 1449 mają odpowiednie oznakowanie na opakowaniu albo bezpośrednio na urządzeniu. Jeżeli tych informacji nie ma, to dławik jest niezgodny ze standardem i nie powinniśmy go kupować. Kolejną rzeczą, na którą warto zwrócić uwagę, jest wbudowany bezpiecznik nadprądowy, który się nie przepala, lecz resetuje. Bezpiecznik ten chroni przed zwarciem w komputerze czy urządzeniu peryferyjnym. Lepsze modele dławików kosztują zwykle około 40 dolarów.
Dławiki zabezpieczające linię telefoniczną Oprócz zabezpieczenia linii elektrycznej, bardzo ważną rzeczą jest zabezpieczenie komputera od strony linii telefonicznej podłączonej do komputera. Jeżeli korzystamy z modemu czy faxu podłączonego do gniazdka telefonicznego, to dowolne skoki czy szpilki napięciowe przenoszone poprzez linię telefoniczną mogą uszkodzić komputer. Linie telefoniczne są bardzo podatne na uderzenia piorunów, które są największymi sprawcami palenia się modemów i połączonego z nimi sprzętu komputerowego. Prosie dławiki, wtykane pomiędzy modem a gniazdko telefoniczne, są produkowane lub sprzedawane przez kilka firm. W te niedrogie urządzenia można się zaopatrzyć większości sklepów z częściami elektronicznymi. Większość producentów kabli i sprzętu komunikacyjnego wymienionych w Dodatku A oferuje takie urządzenia.
Urządzenia formujące napięcie Oprócz zdarzeń związanych ze skokami napięcia czy prądu, mogą pojawiać się inne problemy związane z dostarczaną energią elektryczną. Może nastąpić spadek napięcia poniżej wartości, przy której komputer działa poprawnie. Po linii elektrycznej mogą być przenoszone szumy elektryczne inne niż pojedyncze szpilki czy skoki napięcia, związane np. z interferencją fal radiowych, a także szum elektryczny wywołany przez silniki elektryczne i inne urządzenia indukcyjne. Przy łączeniu ze sobą dwóch urządzeń cyfrowych (np. komputera i urządzenia peryferyjnego) warto pamiętać o dwóch podstawowych regułach: * Dowolny kawałek drutu zachowuje się jak antena i będzie przenosił napięcie wyindukowane w nim pod wpływem pola elektromagnetycznego, które może pochodzić od innych kabli, telefonu, lampy kineskopowej, silnika, lampy ja-rzeniowej, ładunków elektrostatycznych i oczywiście nadajników radiowych. * Układy cyfrowe reagują z pewną wydajnością na szum, nawet o amplitudzie jednego czy dwóch voltów, co czyni napięcia indukcyjne szczególnie dokucz-liwymi. Instalacja elektryczna budynku może działać jak antena i wyłapywać wszelkiego dolarów, w zależności od możliwości „obróbki" wejściowego napięcia.
Zasilacze awaryjne Kolejny poziom ochrony zasilania obejmuje zasilacze awaryjne (ang. backup powerprotection devices).Urządzenia te mogą dostarczać komputerowi energię elektryczną w trakcie przerw w dostawach energii, dzięki czemu mamy czas na spokojne wyłączenie systemu. Dostępne są dwa typy zasilaczy awaryjnych: zasilacze pracujące przy zaniku napięcia sieciowego (ang. standby power supplies, SPS) oraz zasilacze pracujące ciągle (uninter-ruptible power supplies, UPS). UPS jest urządzeniem wyjątkowym, ponieważ jest czymś więcej niż tylko zasilaczem awaryjnym. To także najlepsze możliwe urządzenie formujące napięcie.
Zasilacze awaryjne pracujące przy zaniku napięcia sieciowego (SPS-y) Zasilacz taki jest określany jako urządzenie offline. Działa ono tylko wtedy, kiedy następuje przerwa w dostawie energii elektrycznej. W urządzeniu SPS znajduje się specjalny układ, który bada wartość prądu w linii elektrycznej. Jeżeli zostanie wykryty spadek, to nastąpi szybkie przełączenie na zasilanie bateryjne i zacznie pracować konwerter napięcia. Konwerter napięcia zamienia napięcie baterii na napięcie zmienne 220 V, które jest dostarczane komputerowi. SPS-y spełniają swoje zadanie, jednak czasami zdarzają się problemy z przełączaniem na zasilanie baleryjne. Jeżeli proces ten nie zachodzi odpowiednio szybko, to zasilacz tak czy owak wyłączy się albo zrestartuje, przez co stosowanie SPS-a jako awaryjnego zasilacza traci sens. W bardzo dobrych urządzeniach tego typu znajduje się transforma-tor ferrorezonansowy - duży transformator mający zdolność przechowania niewielkiej ilości energii elektrycznej i dostarczania jej w czasie przełączania. Urządzenie to swoim działaniem stanowi dodatkowy bufcjr między SPS-em a linią elektryczną, dzięki czemu SPS może pracować w sposób niemalże ciągły. Zasilacze SPS mają (albo nie mają) wbudowane urządzenie formujące wstępnie prąd z gniazdka. Większość tańszych urządzeń tego typu pracuje wprost na napięciu sieciowym i nie oferuje żadnego wstępnego formowania. Dodatkowy transformator ferrorezonansowy daje urządzeniu dodatkowe możliwości regulacji i dodatkowo zabezpiecza je dzięki separującym właściwościom transformatora. SPS-y bez dodatkowego transfor-matora wymagają użycia dodatkowego urządzenia formującego, aby zapewniały pełną ochronę zasilania. SPS-y kosztuj ą zazwyczaj od 200 do kilku tysięcy dolarów, w zależności od jakości i mocy wyjściowej.
Awaryjne zasilacze pracujące ciągle (UPS-y)
Najlepszym chyba sposobem na zabezpieczenie się przed problemami z zasilaniem jest źródło zasilania, które formuje napięcie pracując w sposób ciągły. Zasilacz taki, czyli UPS, zwany jest urządzeniem online, ponieważ pracuje w sposób ciągły i przez cały czas dostarcza komputerowi energię elektryczną. Niektóre firmy reklamują urządzenia SPS z transformatorem ferrorezonansowym jako UPS-y, dlatego zasilacze pracujące ciągle są często określane jako true UPS. („prawdziwy" UPS). Zasilacz taki w dużym stopniu przypomina konstrukcją system SPS, jednak nie ma w nim układu przełączającego, ponieważ urządzenie jest przez cały czas zasilane z baterii.rodzaju szumy i zakłócenia. Urządzenie formujące sygnał może stanowić lekarstwo na wiele tego typu problemów. Urządzenie to filtruje napięcie, neutralizuje jego spadki, tłumi skoki napięcia, prądu i generalnie stanowi bufor pomiędzy linią elektryczną a komputerem. Łączy w sobie możliwości dławika i wiele innych. Jako urządzenie aktywne, działa przez cały czas, w przeciwieństwie do urządzeń pasywnych, aktywowanych tylko w czasie trwania spadku napięcia. Urządzenie formujące dokonuje „obróbki" wstępnej napięcia i może pomóc w rozwiązaniu wielu problemów. Zawiera w sobie transformator, kondensatory i inne układy neutralizujące spadki napięcia w sieci. W przypadku zasilania za pośrednictwem rzeczywistego UPS-a, komputer przez cały czas jest zasilany z baterii z konwerterem z napięcia stałego 12 V na napięcie zmienne 220 V. UPS stanowi prywatną „elektrownię" komputera, dostarczającą energię niezależnie od stanu poziomu napięcia wejściowego. Ładowarka baterii jest podłączona do gniazdka sieciowego i ładuje baterię z szybkością większą lub równą szybkości rozładowywania się baterii w czasie pobierania energii przez komputer. W momencie przerwy w zasilaniu UPS kontynuuje pracę, ponieważ zostaje wyłączona tylko funkcja ładowania baterii. Ponieważ UPS w dalszym ciągu pracuje z baterii, nie następuje przełączenie i nie ma przerwy w dostawie energii. Następnie bateria zaczyna się rozładowywać z szybkością zależną od prądu, jaki komputer pobiera z zasilacza, dając użytkownikowi dużo czasu (w zależności od pojemności baterii) na spokojne wyłączenie komputera. W oparciu o odpowiednio dobraną baterię UPS przez cały czas pracuje, generując energię elektryczną i zabezpieczając przed niemiłymi niespodziankami. Po włączeniu prądu ładowarka zaczyna doładowywać baterię - znowu bez żadnej przerwy w działaniu. Cena UPS-ów jest bezpośrednią funkcją długości czasu, przez jaki urządzenie będzie w stanie dostarczać energię po wyłączeniu prądu w sieci, oraz dostarczanej przez niego mocy. Rozsądne byłoby zatem kupno takiego UPS-a, który dostarczałby wystarczająco dużo mocy potrzebnej do pracy komputera i urządzeń peryferyjnych, a także oferowałby wystarczająco dużo czasu na zamknięcie wszystkich plików i wykonanie sprawnej procedury wyłączenia komputera. W większości zastosowań UPS jest rozwiązaniem najbardziej efektywnym cenowo, ponieważ bateria i ładowarka wchodzące w skład UPS-a muszą być dużo większe i dużo droższe od zasilacza typu SPS. Może się zdarzyć, że UPS zgromadzi zbyt wiele ładunku. Gdy się to zdarzy, ostrzeże nas dźwiękiem. Wtedy należy wyciągnąć jego wtyczkę z gniazdka i pozwolić mu się rozładować do optymalnej wartości ładunku. Wiele urządzeń typu SPS jest reklamowanych jako „prawdziwe UPS-y". Tym, co je zdradza, jest czas przetaczania. Jeżeli podaje się czas przełączania, to takie urządzenie nie może być prawdziwym UPS-em, ponieważ w UPS-ach nie zachodzi żadne przełączanie. Należy zdawać sobie jednak sprawę, że dobre urządzenie SPS z wbudowanym transformatorem ferrorezonansowym ma przy niższej cenie w zasadzie takie same parametry jak zasilacz UPS.
Wiele dzisiejszych UPS-ów jest sprzedawanych wraz ze specjalnym kablem, jak również oprogramowaniem, które może rozkazać za-mknięcie systemu, gdy w akumulatorach UPSu będzie już niewiele energii. Niektóre systemy, jak Windows NT, posiadają własne mechanizmy programowe obsługujące UPS-y. UPS zapewnia niemal całkowitą separację zasilacza od linii elektrycznej, dlatego jest niezastąpiony jako układ formujący czy dławik napięciowy. W najlepszych UPS-ach znajduje się jeszcze dodatkowy transformator ferrorezonansowy, który zapewnia jeszcze lepszy poziom zabezpieczenia i formowania napięcia sieciowego. Taki rodzaj UPS-ówjest najlepszą dostępną obecnie formą ochrony zasilacza. Cena takiego urządzenia może być jednak bardzo wysoka. Prawdziwe UPS-y kosztują od l do 2 dolarów za l wat dostarczanej mocy. Aby dowiedzieć się, ile mocy pobiera nasz komputer, spójrzmy na tabliczkę z tyłu obudowy. Tabliczka ta podaje maksymalną wartość pobieranej mocy w watach lub w voltach i amperach. Jeżeli podane jest napięcie i prąd, to mnożąc te wartości otrzymamy zużywaną moc. Przykładowo, informacja znajdująca się z tyłu komputera IBM PC AT Model 339 mówi, że komputer zasilany napięciem 110 V może pobierać maksymalnie 5 amperów prądu. Maksymalna moc pobierana przez ten komputer wynosi więc 550 watów. Wartość ta obowiązuje dla komputera ze wszystkimi zapełnionymi gniazdami rozszerzającymi, dwoma dyskami twardymi i pojedynczym napędem dyskietek - czyli w najbardziej rozbudowanej konfiguracji. Komputer taki nie powinien pobierać więcej prądu niż wynosi podawana wartość, w przeciwnym razie przepali się 5-amperowy bezpiecznik w zasilaczu. Tego typu komputery pobierają przeciętnie 300 watów mocy - przy obliczeniach lepiej jednak przyjąć wartość 550 watów. Dodanie monitora powoduje pobór dodatkowych 100 watów, co daje łącznie 650 watów albo nawet więcej. Do pracy dwóch w pełni wyposażonych komputerów AT będzie więc potrzebny UPS 1100-watowy. Nie zapomnijmy o dwóch monitorach, z których każdy pobiera 100 watów - co daje łącznie 1300 watów. Przy cenie od l do 2 dolarów za pojedynczy wat dostarczanej przez UPS mocy. UPS o mocy pożądanej albo większej kosztowałby od 1300 do 2600 dolarów -dość dużo, jednak najlepszy poziom ochrony musi kosztować. Większość firm jest w stanie zaakceptować tę sumę jedynie w przypadku komputerów wykonujących tzw. zadania krytyczne, np. serwerów plików. 1400 watów jest największą wartością mocy, jaką dysponują dostępne w handlu UPS-y, podłączane do 15-amperowego gniazdka sieciowego. Stosując UPS-y o większej mocy, ryzykujemy przepalenie bezpiecznika 15-amperowego w czasie intensywnego ładowania baterii i pobierania maksymalnego prądu przez inwerter. Oprócz wartości mocy wyjściowej, UPS-y różnią się od siebie jeszcze kilkoma innymi cechami. Dodanie transformatora ferrorezonansowego polepsza właściwości formujące i separujące zasilacza. Dobre UPS-y posiadają również inwerter, który wytwarza prąd 0przebiegu sinusoidalnym, podczas gdy tańsze modele mogą generować falę prostokątną. Fala prostokątna jest aproksymacją fali sinusoidalnej, w której sygnał jest ścięty na dnie 1na wierzchu zboczy fali. Zmienny sygnał o przebiegu prostokątnym jest nieodpowiedni dla niektórych typów zasilaczy. Przed kupnem UPS-a upewnijmy się, że napięcie, które on generuje, odpowiada parametrom naszego zasilacza. Każdy UPS charakteryzuje się określonym czasem, w jakim może dostarczać określoną moc. Jeżeli komputer pobiera mniej mocy, niż wynosi ta wartość, to będzie mógł dłużej współpracować z UPS-em. Większość UPS-ów nie jest przystosowana do wielogodzinnej pracy z komputerem po wystąpieniu przerwy w dostawie prądu. Urządzenia te są przystosowane do zasilania komputera przez czas potrzebny do przeprowadzenia procedury jego wyłączenia. UPS-y mogące pracować dłużej niż 15 minut są bardzo kosztowne. Czasami bardziej opłaca się kupić generator prądowy niż inwestować w długo pracujący UPS.
Systemy zabezpieczające zasilanie są dostępne w wielu miejscach, m.in. w sklepach APC, Bst Power, Tripp Lite (w USA - przyp. tłum.) i innych. Firmy te oferują szeroki wybór urządzeń typu UPS, SPS, dławików napięciowych i urządzeń formujących na-pięcie. Ich dane są podane w Dodatku A. Do urządzenia typu UPS czy SPS nie należy podłączać drukarki laserowej. Urządzenia te są „elektrycznie głośne" i mogą pobierać bardzo różne wartości prądu. Może być to bardzo dokuczliwe dla układu konwertera napięcia wewnątrz UPS-a i spowodować jego awarię. Inwerter może również wykryć, że nastąpiło przeciążenie, i wyłączyć się. W każdym z tych przypadków na zanik zasilania może być narażony również komputer. Drukarki są zwykle urządzeniami o znaczeniu niekrytycznym dla pracy systemu, ponieważ wszystko, co się na nich drukuje, może zostać wydrukowane ponownie. Nie podłączajmy ich więc do UPS-ów, chyba że mamy określony powód.
Baterie RTC/NVRAM W komputerach 16-bitowych znajduje się specjalny układ scalony, który łączy w sobie zegar czasu rzeczywistego (ang. Real Time Clock, RTC) z nie ulotną pamięcią RAM (NVRAM) o pojemności co najmniej 64 bajtów (w tym dane dla zegara). Układ oficjalnie nosi nazwę układu RTC/NVRAM, jednak często określa się go jako uklad CMOS albo CMOS RAM, ponieważ jest wykonany w technologii CMOS (Complimentary Metal Oxide Semiconductor). Układy CMOS charakteryzują się bardzo niskim poborem mocy, a specjalne układy ETC/NVRAM są przystosowane do wieloletniej pracy z zasilaniem bateryjnym. Układem tego typu, zastosowanym w oryginalnym komputerze IBM AT, była Motorola 146818. Układy stosowane obecnie pochodzą od innych producentów i mają inne oznaczenia, jednak wszystkie są kompatybilne z układem Motoroli. Układ RTC/NVRAM zawiera zegar czasu rzeczywistego, którego działanie jest oczywiste. Dzięki niemu oprogramowanie może odczytać aktualny czas i datę, które są pamiętane nawet wówczas, kiedy komputer jest wyłączony. Część układu z pamięcią NVRAM pełni również inną funkcję. Jest w niej pamiętana podstawowa konfiguracja komputera, w tym rozmiar zainstalowanej pamięci, typy stacji dysków i dysku twardego oraz inne informacje. W niektórych nowszych płytach głównych pamięć NVRAM przechowująca informację konfiguracyjną ma pojemność 2 kB albo i więcej. Dotyczy to zwłaszcza nowszych komputerów Plug-and-Play, w których pamiętana jest nie tylko informacja konfiguracyjną płyty głównej, lecz i kart rozszerzających. Informacja ta może być odczytywana każdorazowo po włączeniu komputera. Układy NVRAM są zwykle zasilane z baterii, dzięki czemu po wyłączeniu komputera informacja jest dalej przechowywana w pamięci NVRAM, działa również zegar. Najczęściej stosuje się baterie litowe, które mają bardzo długą żywotność, zwłaszcza we współpracy z układami RTC/NVRAM, pobierającymi bardzo mało prądu.
Większość sprzedawanych obecnie komputerów wyposażona jest w zegar nowego typu z wbudowaną baterią. Układy takie są produkowane przez kilka firm, m.in. Dallas Semiconductor i Benchmarq. Warto na nie zwrócić uwagę ze względu na ich długą żywotność. W normalnych warunkach bateria się w nich nie wyczerpie przez 10 lat, co jest oczywiście okresem dłuższym niż efektywny czas użytkowania komputera. Jeżeli w komputerze znajduje się jeden z modułów firmy Dallas czy Benchmark, to baterię trzeba wymieniać wraz z układem, ponieważ stanowią one jedną całość. W większości układy z baterią są zamontowane w podstawce na płycie głównej, dzięki czemu w razie problemu można je łatwo wymienić. Nowe moduły są dostępne u producenta za ok. 18 dolarów. Cena ta jest często niższa niż cena samej nowej baterii. Spotyka się komputery, które w ogóle nie korzystają z baterii. Przykładowo, w komputerach Hewlet Packard znajduje się specjalny kondensator, który doładowuje się automatycznie, zawsze wtedy, kiedy komputer jest podłączony do prądu. Zauważmy, że komputer nie musi działać, aby kondensator się ładował, wystarczy, że będzie podłączony do prądu. Jeżeli odłączymy komputer od prądu, to kondensator będzie zasilał układ RTC/NVRAM przez tydzień albo i dłużej. Gdy komputer będzie odłączony od prądu przez dłuższy czas, to informacja w pamięci NVRAM zostanie skasowana. Zawartość pamięci NVRAM można odtworzyć z kopii zapasowej, pamiętanej w układzie Flash ROM znajdującym się na płycie głównej. Jedyną informacją, która zostanie utracona po odłączeniu komputera od prądu, będzie data i czas. Informację tę trzeba będzie wprowadzić ponownie po włączeniu komputera. Wykorzystanie kondensatora wraz z kopią pamięci NVRAM w pamięci Flash ROM zapewnia niezawodne działanie komputera, który będzie przez bardzo długi czas pamiętał swoje dane konfiguracyjne. W większości komputerów znajduje się tylko zwyczajna bateria, która jest albo bezpośrednio przylutowana do płyty głównej, albo umieszczana w odpowiedniej podstawce. W komputerach z baterią wlutowaną na stałe znajduje się dodatkowa podstawka na płycie głównej, służąca do włożenia konwencjonalnej baterii w razie wyczerpania się starej baterii. Dzięki temu w większości przypadków nigdy nie trzeba będzie wymieniać baterii, nawet kiedy się całkowicie wyczerpie. Konwencjonalne baterie występują w wielu odmianach. Najlepsze są baterie litowe, które działają od dwóch do pięciu lat albo i dłużej. Widziałem komputery wyposażone w zwykłe baterie alkaliczne, umieszczone w podstawce. Baterie te mniej nadają się na potrzeby komputerów, ponieważ częściej się psują i mają zbyt krótką żywotność. Zdarzają się im także wycieki elektrolitu, które mogą poważnie uszkodzić płytę główną. Oprócz różnych typów baterii, spotyka się baterie o różnym napięciu. Baterie wykorzystywane w komputerach PC są zwykle bateriami o napięciu 3,6 V, 4,5 V albo 6 V. Przy wymianie baterii upewnijmy się, że nowa bateria ma takie samo napięcie jak poprzednia. Niektóre płyty główne mogą wykorzystywać baterie o różnych napięciach, na płytach takich znajduje się zworka albo przełącznik służący do wyboru odpowiedniego napięcia baterii. Jeżeli przypuszczamy, że płyta główna ma taką możliwość, to poszukajmy informacji na ten temat w dokumentacji. Najprościej będzie oczywiście wymienić baterię na inną takiego samego typu i wówczas nie będzie potrzebna zmiana żadnych ustawień. Jedny z symptomów mającego nastąpić uszkodzenia baterii jest kasowanie się zegara i datownika za każdym wyłączeniem komputera (w szczególności przy jego przenoszeniu).a także problemy podczas POST (Power-On Self Test) - gdy komputer ma problemy przy wykrywaniu dysków. Gdy napotkasz tego typu problem, dobrze jest spisać na kartce wszystkie istotne ustawienia pamięci CMOS, a w najbliższym czasie wymienić wadliwą baterię.
Wymieniając baterię w komputerze, trzeba pamiętać o zachowaniu biegunowości, ponieważ w razie odwrotnego włożenia baterii ulegnie uszkodzeniu układ RTC/IWRAM (CMOS). Układy te w przypadku większości płyt głównych są na stałe przylutowane, więc będzie to bardzo kosztowna pomyłka! Podstawka pod baterię i sama bateria mają zazwyczaj kształt uniemożliwiający nieprawidłowe włożenie. Opis końcówek podstawki powinien się znajdować w dokumentacji komputera. Przy wymianie baterii najczęściej zostaną utracone dane w pamięci NVRAM. Często się zdarza, że dane pozostają w pamięci przez kilka minut (widziałem raz, jak informacja w układzie NVRAM utrzymała się przez ponad godzinę), tak więc jeżeli odpowiednio szybko dokonamy wymiany, to nie dojdzie do utraty danych. Aby się zabezpieczyć, powinniśmy za pomocą programu SETUP zachować całą informację konfiguracyjną komputera, pamiętaną w pamięci NVRAM. W większości przypadków zadanie to będzie polegać na uruchomieniu programu SETUP i wydrukowaniu zawartości ekranów dla wszystkich ustawień. Niektóre programy SETUP dają możliwość sporządzenia kopii zapasowej informacji z pamięci NVRAM w pliku. Jeżeli opcja ta jest dostępna, byłoby rozsądne skorzystanie z niej. Jeżeli ustawiłeś w BlOS-ie opcję pytania o hasło, a potem zapomniałeś, jak ono brzmiało, jedyną możliwą drogą ominięcia zabezpieczenia jest wyjęcie baterii na kilka minut. Powinno to spowodować skasowanie informacji CMOS oraz owego zabezpieczenia. Po wymianie baterii włączamy komputer i za pomocą programu SETUP sprawdzamy datę i czas, a także pozostałe dane zapisane w pamięci NVRAM.
Urządzenia wejściowe Rozdział ten jest poświęcony zewnętrznym urządzeniom wejściowym komputera. Szczegółowo zostanie tutaj omówiona klawiatura, która jest najpopularniejszym urządzeniem tego typu. Opisana będzie mysz i inne urządzenia wskazujące, które należą do standardowego wyposażenia każdego nowoczesnego komputera PC pracującego w środowisku GUI (graphical user interface), takim jak Windows czy OS/2. Na końcu rozdziału zostaną omówione interfejsy joysticka, manipulatorów (paddles) i innych urządzeń wykorzystywanych w grach.
Klawiatura Jednym z podstawowych elementów systemu komputerowego jest klawiatura. Jest ona najważniejszym urządzeniem wejściowym komputera. Klawiatura służy do wprowadzania do komputera rozkazów i danych. W tej części rozdziału przedstawimy przegląd różnych typów klawiatur przeznaczonych do komputera PC. Omówimy także zasady działania klawiatury, interfejs łączący klawiaturę z komputerem, a następnie zajmiemy się rozwiązywaniem problemów technicznych z klawiaturą i ich rozwiązywaniem.
Rodzaje klawiatury Od momentu pojawienia się pierwszego komputera PC, firma IBM opracowała do nie-go trzy rodzaje klawiatur, z których jeden został wykorzystany i ulepszony przez firmę Microsoft. Klawiatury te stały się standardem i znalazły się w ofercie praktycznie wszystkich producentów sprzętu PC. Ostatnio, w związku z pojawieniem się systemu operacyjnego Windows 95, pojawiła się zmodyfikowana wersja klawiatury 101klawiszowej, zaprojektowana przez firmę Microsoft. Oto cztery podstawowe rodzaje klawiatur PC: * 83-klawiszowa klawiatura PC/XT * 84-klawiszowa klawiatura AT *
klawiatura 101-klawiszowa (Enhanced 101-Key Keyboard)
* 104-klawiszowa klawiatura Windows W tej części rozdziału zostaną omówione powyższe typy klawiatur, ich wygląd i sposób wykonania. Bardziej szczegółowo będą przedstawione modele 101- i 104-klawiszowe, gdyż są one obecnie najpopularniejszymi typami klawiatur.
83-klawiszowa klawiatura PC/XT Oryginalny komputer IBM PC miał pewną szczególną cechę, która była wówczas rzadkością wśród większości komputerów osobistych, mianowicie klawiatura była dołączana zewnętrznie do komputera. W tamtych czasach większość komputerów osobistych, np. Apple II, posiadała wbudowane klawiatury. Koncepcja klawiatury dołączanej zewnętrznie była zaletą komputera IBM PC, jednak sama klawiatura miała pewne mankamenty. Najczęściej krytykowano j ą za brak ergonomii (zob. rysunek 9.1). Klawisze Shift miały za mały rozmiar i były umieszczone w niewłaściwym miejscu po lewej stronie klawiatury. Zbyt mały był również klawisz Enter. Niedopatrzenia te były wówczas szczególnie dokuczliwe, ponieważ w tym samym czasie firma IBM wyprodukowała udaną maszynę do pisania Selectric, która była postrzegana jako standard poprawnego układu klawiatury. Rysunek 9.1. 83-klawiszowa
Klawiatura PC/XT miała wbudowany procesor odpowiedzialny za komunikację z płytą główną komputera za pośrednictwem specjalnego interfejsu szeregowego. Komunikacja komputera z klawiaturą była jednokierunkowa, to znaczy płyta główna nie mogła przesyłać rozkazów i danych do klawiatury. Z tego względu klawiatura PC/XT nie posiada wskaźnika stanu w postaci diod LED. Aktualny stan klawiszy Caps Lock, Num Lock i Scroll Lock (czyli to, czy są one naciśnięte, czy nie) jest pamiętany przez płytę głów-ną, wobec czego nie można było zapewnić synchronizacji pomiędzy statusem tych trzech klawiszy a świeceniem się diod LED. Wiele późniejszych modeli klawiatur producentów innych niż IBM posiadało diodowy wskaźnik statusu i możliwość pamiętania przez klawiaturę statusu trzech klawiszy niezależnie od płyty głównej. W większości przypadków działało to dobrze, ale zdarzało się, że wskaźniki diodowe błędnie pokazywały stan klawiszy. Problem ten mógł być rozwiązany przez zresetowanie komputera, jednak takie rozwiązanie irytowało użytkowników.
Klawiatura PC/XT, która w swojej oryginalnej wersji wyszła już z użycia, jest elektrycznie niekompatybilna z płytą główną komputerów AT, aczkolwiek niektóre późniejsze modele mają wbudowany przełącznik pozwalający na pracę w trybie AT.
84-klawiszowa klawiatura AT Komputer IBM PC/AT, który pojawił się na rynku w roku 1984, był wyposażony w nową, 84-klawiszową klawiaturę (zob. rysunek 9.2). W tym modelu wyeliminowano wiele niedoróbek klawiatury PC/XT. Zmieniono położenie i rozkład klawiszy numerycznych. Powiększono klawisz Enter do rozmiarów klawisza w maszynie do pisania Selectric. Poprawiono położenie i rozmiar klawiszy Shift. Firma IBM zdecydowała się również na dodanie diod LED sygnalizujących stan klawiszy Caps Lock, Scroll Lock i Num Lock. Rysunek 9.2. 84-klawiszowa klawiatura AT
Protokół komunikacji klawiatury z komputerem został zmieniony na dwukierunkowy. Oznacza to, że procesor wbudowany w klawiaturę może się komunikować z procesorem na płycie głównej, zwanym kontrolerem klawiatury (8042). Kontroler klawiatury, umieszczony na płycie, może wysyłać dane i rozkazy do klawiatury, co pozwala na realizację tzw. autorepetycji (samoczynnego powtarzania wysyłania znaku odpowiadającego naciśniętemu klawiszowi) wraz z określeniem odstępu czasu po naciśnięciu klawisza, po jakim autorepetycja się rozpocznie. Układ kontrolera na płycie głównej realizuje tak-że przyporządkowywanie szesnastkowych kodów naciśniętych klawiszy odpowiednim znakom (ang. scan code translation), umożliwiając w ten sposób komunikację komputera z klawiaturami w różnych wersjach językowych. Dwukierunkowy interfejs umożliwia ponadto sterowanie trzema diodami na klawiaturze, co zapewnia synchronizację stanu klawiszy Caps Lock, Scroll Lock, Num Lock ze stanem diod LED. Chociaż 84-klawiszowa klawiatura AT wyszła już raczej z użycia, to jednak wciąż po-zostaje kompatybilna elektrycznie z nowszymi wersjami płyt głównych. Brak jej, co prawda, niektórych klawiszy obecnych w nowszych typach klawiatur, w tym wygodnego bloku klawiszy numerycznych i osobnego bloku klawiszy kursora, jednak styl rozmieszczenia klawiszy alfanumerycznych, przypominający popularną maszynę do pisania Selectric, bardziej odpowiada wielu użytkownikom. Również sprawą indywidualnych preferencji jest obecność bloku 10 klawiszy funkcyjnych z lewej strony klawiatury za-miast rzędu dwunastu klawiszy funkcyjnych w pierwszym rzędzie na górze, jak zostało to rozwiązane w klawiaturze 101klawiszowej.
Klawiatura 101-klawiszowa (102-klawiszowa) W 1986 r. firma IBM zaprezentowała nową, „korporacyjną" klawiaturę 101-klawiszową, przeznaczoną do współpracy z nowszymi modelami XT i AT (zob. rysunek 9.3). Klawiatura ta była „korporacyjna", ponieważ pierwsze jej modele pojawiły się wraz z komputerem IBM PC RT - maszyną typu RISC (Reduced Instruction Set Computer), przeznaczoną do zastosowań inżynierskich i naukowych; obecnie klawiatury tego typu znajdują się właściwie w każdym zestawie komputerowym czy terminalu wyprodukowanym przez firmę IBM. Rozwiązanie klawiatury 101-klawiszowej zostało skopiowane przez inne firmy i wkrótce stało się standardem klawiatury komputerów PC. Rysunek 9.3. Układ klawiatury 101-klawiszowej (Enhanced 101-Key Keyboard)
Klawiatura 101klawiszowa posiada lepsze rozmieszczenie klawiszy niż klawiatura 84klawiszowa, może z wyjątkiem zbyt małego (znowu) klawisza ENTER. Projektując ją, pomyślano o tym, by spełniała międzynarodowe przepisy i wymogi dotyczące klawiatur. Niektóre firmy, np. Digital Equipment Corporation (DEC) czy Texas Instruments (TI), stosują po dziś dzień w swoich komputerach klawiatury zbliżone do 101-klawiszowego pierwowzoru IBM. Oryginalne klawiatury firmy IBM były sprzedawane w dwóch wersjach: z diodowym wskaźnikiem stanu lub bez, w zależności od tego, czy klawiatura wchodziła w skład zestawu XT czy AT. Obecnie spotyka się wiele różnych wariantów klawiatury 101klawiszowej, w tym także z wbudowanymi urządzeniami wskazującymi. Obecnie dostępnych jest kilka wariantów klawiatury 101-klawiszowej, wszystkie one są jednak elektrycznie kompatybilne i mogą być zamiennie podłączane do komputera. Firmy IBM i Lexmark (filia IBM produkująca klawiatury i drukarki) opracowały kilka z nich, w tym klawiatury z urządzeniami wskazującymi i modele o bardziej ergonomicznym rozmieszczeniu klawiszy. Większość klawiatur jest dołączanych do komputera za pomocą standardowej pięcio końcówkowej wtyczki typu DIN (Deutsche Industrie Norm), sporo modeli jest też dołączanych przez sześcio końcówkową wtyczkę mini-DIN, np. komputery IBM/PS2 i kompatybilne czy komputery Slimline i kompatybilne. Po-mimo różnych wtyczek, klawiatury pozostają takie same i w przypadku gdy wtyczka nie pasuje do gniazdka, można zamienić kabel albo zastosować wtyczki przejściowe. Z klawiatury 101-klawiszowej można wyodrębnić cztery bloki klawiszy: * klawisze podstawowe (jak w maszynie do pisania), * blok klawiszy numerycznych klawisze sterujące kursorem i służące do poruszania się po ekranie, * klawisze funkcyjne. Pod względem rozmieszczenia klawiszy klawiatura 101-klawiszowa przypomina popularną maszynę do pisania Selectric. Klawisze Tab, Caps Lock, Shift i Backspace mają większą powierzchnię i są rozmieszczone podobnie jak w tej maszynie do pisania. Klawisze Ctrl i Alt znajdują się po obydwu stronach klawisza spacji. Wśród klawiszy podstawowych i numerycznych znajdują się klawisze z wypustkami, które umożliwiają pisanie bez patrzenia na klawiaturę.
Klawisze służące do poruszania się po ekranie zostały wydzielone z bloku klawiszy numerycznych, które są zarezerwowane do wprowadzania danych liczbowych. (Możliwe jest używanie klawiszy numerycznych do sterowania kursorem, gdy wyłączony jest tryb Num Lock). Do bloku klawiszy numerycznych dodano klawisz znaku dzielenia i klawisz Enter. Klawisze sterujące kursorem zostały zgrupowane w blok w kształcie odwróconej litery T. Klawisze Insert, Delete, Home, End, Page Up i Page Down wydzielono z bloku klawiszy numerycznych i umieszczono w bloku nad klawiszami kursora. Klawisze funkcyjne, w trzech blokach po cztery klawisze, znajdują się w pierwszym górnym rzędzie klawiatury. Dodano klawisze funkcyjne Fll i F12. Klawisz Esc znajduje się w lewym górnym rogu klawiatury. Realizację częstych funkcji umożliwiają klawisze Print Screen/Sys Req, Scroll Lock i Pause/Break. Inne niż amerykańska wersje klawiatury Enhanced mają 102 klawisze i nieznacznie się różnią od pierwowzoru. Jedną z wielu użytecznych cech klawiatury 101-klawiszowej są wymienialne klawisze (same plastikowe nasadki). Umożliwia to dostosowanie klawiatury do specyficznych wymagań użytkownika (służą do tego klawisze z papierową wkładką). Dostępne są również szablony klawiatur służące do realizacji specjalnych funkcji. Klawiatura Enhanced prawdopodobnie jeszcze przez jakiś czas będzie sprzedawana z większością komputerów typu desktop. Obecnie jest najpopularniejszym rodzajem klawiatury i nic nie wskazuje na to, żeby sytuacja ta miała wkrótce ulec zmianie. W sytuacji gdy większość komputerów PC współpracuje z tym samym typem klawiatury, dość łatwa staje się „przesiadka" pomiędzy różnymi komputerami, bez konieczności uczenia się nowego układu klawiatury.
104-klawiszowa klawiatura Windows Jeżeli należysz, podobnie jak ja, do ludzi piszących bez patrzenia na klawiaturę, to na pewno irytuje cię konieczność odrywania rąk od klawiatury w celu użycia myszy. Jeszcze bardziej jest to uciążliwe w systemie Windows 95, w którym wykorzystywane są obydwa klawisze myszy. Wiele nowszych rozwiązań klawiatur, szczególnie w kompu-terach typu poilable, posiada wbudowane różne manipulatory w rodzaju IBM Trackpoint czy Alps Glidepoint (będą one omówione w dalszej części rozdziału), które pozwalają osobom piszącym bez patrzenia na klawiaturę przesuwać kursor nie odrywając od niej rąk. Jeszcze inaczej problem ten rozwiązała firma Microsoft, dodając do klawiatury 101klawiszowej trzy klawisze służące do obsługi specyficznych cech systemu Windows. Nowe klawisze wspomagają funkcje, które przy zwykłej klawiaturze wymagałyby klikania myszą albo wielokrotnego naciskania różnych klawiszy. Firma Microsoft opracowała klawiaturę, która pozwala wykorzystywać nowe klawisze i ich kombinacje. Liczba klawiszy została zwiększona ze 101 do 104 poprzez dodanie dwóch klawiszy Windows (ang. Win Keys) oraz klawisza aplikacji (ang. Application Key). Klawisze te są wykorzystywane do tworzenia kombinacji, podobnych do kombinacji z klawiszem Ctrl czy Alt, wykorzystywanych w systemie i w aplikacjach Windows. Nie ma konieczności posługiwania się nimi w czasie pracy w systemie Windows 95 czy NT, jednak ostatnio producenci oprogramowania zaczynają dodawać do swoich produktów różne funkcje wykorzystujące klawisz aplikacji (który spełnia tę samą rolę co prawy klawisz myszy).
W zalecanym klawiatury 104-klawiszowej klawisze Windows sąsiadują z kla-wiszami Alt, a klawisz aplikacji znajduje się z prawej strony prawego klawisza Windows. Należy jednak pamiętać, że szczegółowe rozmieszczenie klawiszy pozostawiono decy-zji producenta, przez co mogą występować różnice pomiędzy klawiaturami różnych producentów.
Naciśnięcie klawisza Windows powoduje otwarcie menu Start, po którym można się następnie poruszać za pomocą klawiszy kursora. Klawisz aplikacji symuluje prawy klawisz myszy; w większości aplikacji jego naciśnięcie otwiera tzw. menu kontekstowe (ang. contextsensitive pop-up menu). Kilku kombinacjom łączącym naciśnięcie klawisza Windows z innymi klawiszami przypisano tzw. makra rozkazowe. Np. kombinacja WIN+E powoduje uruchomienie Eksploratora Windows. Poniższa tabela zawiera spis wszystkich nowych kombinacji klawiszy systemu Windows 95: Kombinacja klawiszy
Akcja
WIN+R
Otwiera okno dialogowe „Uruchom".
WIN+M
Minimalizuje wszystkie okna.
Shift+WIN+M
Maksymalizuje wszystkie okna.
WIN+F1
Uruchamia system pomocy.
WIN+E
Uruchamia Eksplorator Windows.
WIN+F
Wyszukuje pliki i foldery.
Ctrl+WIN+F
Wyszukuje komputer w sieci.
WIN+Tab
Aktywizuje kolejny przycisk na pasku zadań.
WIN+Break
Otwiera okno dialogowe „Właściwości: System".
Specyfikacja 104-klawiszowej klawiatury Windows wymaga od producentów, aby zwiększyli w swoich klawiaturach ilość kombinacji trzech klawiszy, które naciśnięte jednocześnie wywołują określoną reakcję (ang. trillograms). Przykładem takiej kombinacji jest Ctrl+Alt+Delete. Konstruowanie matrycy klawiatury w taki sposób, aby rejestrowała potrójne kombinacje naciśniętych klawiszy, jest jednak kosztowne. Kolejnym czynnikiem powodującym wzrost cen klawiatur są dodatkowe klawisze. Sprzedaż na dużą skalę oraz konkurencja powinny jednak utrzymać ich ceny w rozsądnych granicach. Obecnie w zasadzie każdy producent klawiatur ma w ofercie modele z dodatkowymi klawiszami Windows. Niektórzy producenci dodają kolejne ulepszenia. Np. klawiatura Microsoft Natural Keyboard oprócz klawiszy Windows posiada pewne cechy poprawiające ergonomię, np. podział klawiszy na dwa bloki zapewniające prawidłową pozycję nadgarstków. Przyzwyczajenie się do takiego układu klawiatury wymaga jednak trochę czasu. Wadą klawiatury Microsoft (produkowanej przez firmę Keytronics) jest brak wyraźnego „kliknięcia" towarzyszącego naciśnięciu klawisza, które występuje w klawiaturach firmy Alps, Lite-On, NMB czy Lexmark. Zwłaszcza klawiatury tej ostatniej firmy są pod tym względem szczególnie komfortowe. Oprócz trzech dodatkowych klawiszy Windows, w klawiaturach firm Lexmark, NMB i Alps pojawił się nowy rodzaj klawisza spacji, umożliwiający wygodne kasowanie wprowa-dzanych znaków (ang. Erase-Easy). Właścicielem licencji na to rozwiązanie jest firma Keyboard Enhacements, Inc. Pomysł polega na podziale klawisza spacji na dwa klawisze, z których krótszy lewy klawisz (opcjonalnie prawy) pełni funkcję klawisza Backspace. Jeżeli w materiałach reklamowych jest mowa o 105 klawiszach, to najprawdopodobniej oznacza to, że klawiatura posiada trzy klawisze Windows oraz dodatkowy klawisz Backspace obok klawisza spacji. Dodatkowe klawisze nie są konieczne do pracy z systemem Windows i z pewnością nie każda klawiatura jest w nie wyposażona. Jednak prawdopodobnie coraz większa liczba komputerów PC będzie wyposażona w klawiatury 104-klawiszowe. Dodatkowe klawisze mogą ułatwić dostęp do funkcji systemu i aplikacji Windows zarówno nowicjuszom, jak i doświadczonym użytkownikom, piszącym bez patrzenia na klawiaturę.
Klawiatury komputerów przenośnych Ze względu na ograniczone rozmiary komputerów przenośnych, niemożliwe jest zagwarantowanie ich klawiaturom takiej wygody użytkowania, jak klawiaturom komputerów stacjonarnych. Powstaje wiele różnych rozwiązań. Niestety, nie ustalił się żaden standard, w przeciwieństwie do komputerów domowych PC. Dawniej proponowanym rozwiązaniem było zmniejszenie rozmiaru klawiszy. Nie spotkało się to z gorącym przyjęciem ze strony użytkowników przyzwyczajonych do charakterystycznego rozkładu palców na klawiaturze. W tej chwili jedynymi klawiszami o zmniejszonym rozmiarze są klawisze z cyframi oraz klawisze specjalne. Najbardziej widoczną różnicą jest brak wydzielonego bloku klawiszy numerycznych. Jednak brak owych klawiszy okazał się problemem do przezwyciężenia. Zastosowane rozwiązanie polega na możliwości użycia części klawiatury alfanumerycznej do symulowania owego bloku klawiszy. Jest to przedstawione na rysunku 9.5. Przełączanie pomiędzy trybami pracy odbywa się zazwyczaj przez kombinację klawiszy - rozwiązań jest wiele. Oczywiście nie jest to rozwiązanie zbyt wygodne. Na szczęście, przestawienie się na używanie klawiszy numerycznych w bloku alfanumerycznym nie jest zbyt trudne. Okazuje się, że jedyną czynnością, którą można wykonać tylko na bloku klawiszy numerycznych, jest wpisywanie znaków bezpośrednio za pomocą ich kodów ASCII (za pomocą klawisza Alt plus numer ASCII). W wielu przenośnych systemach istnieje klawisz Fn, którego użycie jest zbliżone do klawiszy Alt czy Ctrl - modyfikuje on standardowe działanie innych klawiszy. Można za jego pomocą pogłośnić muzykę, przyciemnić obraz, użyć pojedynczego klawisza w bloku numerycznym i wykonać wiele innych czynności. Ciekawostką jest powstawanie przez pewien czas systemów (na przykład firmy IBM), w których klawiatura dzieliła się na dwie części. W pozycji zamkniętej spoczywały one na sobie - jedna na drugiej - we wnętrzu obudowy. Jednak po otworzeniu komputera rozkładały się na boki tworząc klawiaturę większą od obudowy komputera. Wysiłkom konstruktorów przyszły z pomocą oczekiwania klientów, którzy w swoich systemach chcieli mieć coraz większe ekrany. Rozmiar ekranu idzie w parze ze wzrostem szerokości komputera, a wraz z nią zwiększała się ilość miejsca na klawiaturę. Dlatego wspomniane wyżej rozwiązania okazały się niepotrzebne. >> Patrz „Klawiatury", str. 1169 Kompatybilność 83-klawiszowa klawiatura PC/XT odróżnia się od pozostałych typów klawiatur i zasadniczo może współpracować tylko z 8-bitowymi komputerami PC/XT, na których płycie głównej nie ma układu kontrolera klawiatury 8042. Powyższe stwierdzenie jest prawdziwe dla klawiatur firmy IBM i większości modeli kompatybilnych. Klawiatury niektórych producentów mogą być przełączane w tryb pracy z płytą główną AT. 84-klawiszowa klawiatura firmy IBM współpracuje poprawnie z 16-bitową (lub lepszą) płytą główną AT, lecz nie będzie współpracować z żadną z płyt PC/XT. Podobnie jak w przypadku klawiatury 83-klawiszowej, niektóre modele innych producentów są wyposażone w przełącznik pozwalający na pracę w trybie PC/XT. Jeżeli klawiatura zostanie ustawiona na pracę w niewłaściwym tr>bie, to nie będzie działać, lecz nie spowoduje to uszkodzenia sprzętu. Uniwersalne klawiatury Enhanced Keyboard firmy IBM dzięki opcji auto-switching mogą współpracować z właściwie każdym komputerem IBM i kompatybilnym, począwszy od PC/XT, a skończywszy na PS/2 — wystarczy tylko podłączyć klawiaturę do komputera. Niektóre modele do poprawnej współpracy z komputerem PC/XT bez kontrolera 8042 na płycie głównej będą wymagały odpowiedniego ustawienia przełącznika. Może też być potrzebny kabel przejściowy z dopasowaną wtyczką.
Klawiatura 101-klawiszowa jest elektrycznie kompatybilna z każdą płytą główną typu AT, a nawet z większością płyt PC/XT, jednak przy podłączaniu jej do wielu starszych modeli komputerów mogą wystąpić problemy spowodowane oprogramowaniem. W celu zapewnienia poprawnej obsługi nowej klawiatury, firma IBM zmodyfikowała zawartość pamięci ROM swoich komputerów, podobnie postąpili producenci maszyn kompatybilnych. W bardzo starych komputerach (z roku 1986 lub starszych) do prawidłowego działania niektórych funkcji klawiatury 101-klawiszowej, takich jak klawisze funkcyjne Fll czy F12, może być konieczna wymiana układu pamięci ROM na nowszą wersję. Jeżeli ROM BIOS komputera nie obsługuje klawiatury 101-klawiszowej, to klawiatura może wcale nie działać (tak jak w przypadku wszystkich trzech wersji pamięci ROM firmy IBM) albo też nie działają klawisze funkcyjne Fl l i F12 lub pojawiają się inne problemy. Kłopoty z kompatybilnością mogą się też objawiać pojawianiem się na ekranie po naciskaniu klawiszy niewłaściwych znaków (towarzyszy temu dźwięk z głośniczka), co praktycznie uniemożliwia pracę. Tego rodzaju problemy można często rozwiązać poprzez wymianę układu pamięci ROM na nowszy, co zapewnia poprawną obsługę klawiatury 101-klawiszowej. Prawidłową obsługę klawiatury 101-klawiszowej przez BIOS starszych komputerów IBM można sprawdzić w następujący sposób: po podłączeniu klawiatury i włączeniu komputera powinna się automatycznie zapalić dioda Num Lock, a blok klawiszy numerycznych powinien być włączony. Metoda ta nie jest całkowicie skuteczna, jednak generalnie zapalenie się diody oznacza, że BIOS danego komputera obsługuje podłączoną klawiaturę. Godnym uwagi wyjątkiem jest BIOS IBM AT z datą 10.06.85: po włączeniu komputera zapala się dioda Num Lock, lecz obsługa klawiatury nie jest w pełni poprawna. Wszystkie wersje BIOS-u firmy IBM, począwszy od daty 15.11.85, obsługują klawiaturę 101-klawiszową w sposób prawidłowy. W komputerze IBM, który współpracuje z klawiaturą 101-klawiszową, w momencie wykrycia tej klawiatury przy włączeniu komputera zapala się dioda Num Lock i włącza się blok klawiszy numerycznych. Jeżeli komputer wykryje, że podłączona klawiatura jest starszym modelem 84-klawiszowym, to blok klawiszy numerycznych nie jest włączany - klawiatura 84klawiszowa nie posiada osobnych klawiszy kursora, wydzielonych z bloku klawiszy numerycznych. Kiedy w roku 1986 pojawiła się klawiatura 101-klawiszowa, wielu jej użytkowników (w tym także autora) irytowało automatyczne włączanie bloku klawiszy numerycznych za każdym razem po uruchomieniu komputera. Większość producentów komputerów kompatybilnych z IBM zaczęło umieszczać w programie SETUP opcję umożliwiającą określenie stanu klawisza Num Lock w czasie inicjowania systemu. Niektórym użytkownikom może się wydawać, że automatyczne uaktywnianie funkcji Num Lock w czasie startu komputera jest specyficzną funkcją klawiatury 101-klawiszowej, odróżniającą ją od poprzednich modeli. Należy jednak pamiętać, że nie jest to funkcja klawiatury, lecz płyty głównej. Gdy BIOS płyty głównej rozpoznaje podłączoną klawiaturę jako 101-klawiszową, włącza klawisz Num Lock. W komputerach, w których BIOS nie umożliwia wyłączenia funkcji Num Lock, można ustawić - począwszy od systemu DOS 6.0 - stan klawisza Num Lock za pomocą dyrektywy NUMLOCK= w pliku CONFIG.SYS. Jeżeli korzysta się ze starszej niż 6.0 wersji systemu DOS, to można w tym celu użyć jednego z dostępnych programów typu public domain. Umieszczenie polecenia wywołującego taki program w pliku AUTOEXEC.BAT zapewnia wyłączenie bloku klawiszy numerycznych po każdym uruchomieniu komputera. Przeprowadziłem nieformalny test, w którym podłączyłem nową klawiaturę do starszej wersji komputera XT. W moim odczuciu klawiatura pracowała poprawnie. Nie działał wprawdzie żaden z klawiszy typu Fll czy F12, ale działały klawisze kursora w bloku klawiszy numerycznych. Klawiatura 101-klawiszową powinna współpracować popraw-nie z komputerami XT i AT, lecz odmówi współpracy z oryginalnym modelem PC. Powodem są różnice w pamięci ROM BIOS i odmienne elektrycznie interfejsy. W klawiaturach kompatybilnych z klawiaturą 101-klawiszową znajduje się często na spodzie przełącznik, który umożliwia współpracę klawiatury z oryginalnym komputerem PC.
Technologia wykonania klawiatury Technologia wykonania typowej klawiatury PC jest zagadnieniem bardzo interesującym. W tej części rozdziału zostaną omówione typy przełączników wykorzystywane w klawiaturach, interfejs łączący klawiaturę z komputerem, kody liczbowe przyporządkowane klawiszom i rodzaje wtyczek.
Budowa i zasada działania przełączników We współczesnych klawiaturach wykorzystuje się kilka rodzajów przełączników. W większości klawiatur zastosowano jeden z kilku wariantów przełącznika mechanicznego. Działanie tego przełącznika polega na chwilowym zamknięciu obwodu elektrycznego w momencie naciśnięcia klawisza. W klawiaturach najwyższej klasy zamiast przełączników mechanicznych zastosowano tzw. przełączniki pojemnościowe o odmiennej zasadzie działania. Omówione zostaną obydwa rodzaje przełączników oraz ich wady i zalety. Najpopularniejsze obecnie przełączniki mechaniczne są dostępne w następujących odmianach: * typowo mechaniczne - z gumową kopułką * z elementem piankowym - membranowe Typowo mechaniczny przełącznik jest prostym przełącznikiem, w którym w momencie naciśnięcia klawisza następuje zetknięcie metalowych styków. Wbudowany w prze-łącznik tzw. mechanizm reakcji na naciśnięcie (tactile feedback), złożony z „klipsa" i sprężyny, powoduje, że naciśnięciu klawisza towarzyszy odczucie „kliknięcia" i wy-raźny opór. Producenci klawiatur mechanicznych - firmy Alps Electric, Lite-On i NMB Technologies wykorzystują głównie przełączniki firmy Alps Electric. Przełączniki mechaniczne są bardzo wytrzymałe, mają zazwyczaj właściwość samooczyszczania styków i w normalnych warunkach wytrzymują 20 milionów naciśnięć - pod tym względem ustępują jedynie przełącznikom pojemnościowym. Ich zaletą jest też wyraźny opór naciskanego klawisza. W niektórych starszych klawiaturach często stosowane były przełączniki mechaniczne z elementem piankowym. Technologię tę stosowała większość producentów, w tym także firma Keytronics. Element piankowy jest przymocowany za pośrednictwem tłoczka do nasadki klawisza, a na jego spodzie znajduje się warstwa folii przewodzącej (zob. rysunek 9.6).
Rysunek 9.6. Budowa klawisza Z przełącznikiem zawierającym element piankowy
Kiedy klawisz zostaje naciśnięty, przewodząca folia zamyka obwód prądu na płytce drukowanej znajdującej się pod klawiszem. Siła sprężyny powoduje powrót zwolnionego klawisza do pozycji początkowej. Element piankowy zapobiega odbijaniu styków, wywołuje jednak wrażenie zapadania się naciskanego klawisza. Z tego powodu producenci często stosują triki polegające na sygnalizowaniu dźwiękowym, że naciśnięcie klawisza spowodowało zamknięcie obwodu elektrycznego, co jest dość kłopotliwe. Technologia przełączników z elementem piankowym (klawiatury firmy Keytronics) była wykorzystywana w wielu komputerach firmy Compaq, obecnie jednak jest najpowszechniej stosowana przez Packard Bell. To, czy naciśnięciu klawisza powinien towarzyszyć wyraźny opór, jest kwestią indywidualną, ja osobiście nie należę do entuzjastów klawiatur z elemen-tem piankowym. Innym problemem występującym w tego rodzaju klawiaturach jest skłonność folii przewodzącej i ścieżek płytki drukowanej do ulegania korozji, co może się przejawiać tym, że naciśnięcie klawisza nie powoduje żadnej reakcji. Bywa to dość irytujące. Na szczęście, klawiatury te można z łatwością oczyścić. Po rozkręceniu obudowy, można na ogół wyjąć płytkę drukowaną i uzyskać dostęp do spodów wszystkich elementów piankowych, bez potrzeby wyciągania każdego elementu. Wówczas można łatwo ze-trzeć korozję i brud z elementów piankowych i z płytki drukowanej, przywracając w ten sposób klawiaturze jej dawną świetność. Niestety, po pewnym czasie te same problemy znowu się pojawią. Osobiście polecam preparat o nazwie Stabillant 22a firmy D.W. Electrochemicals, którego stosowanie poprawia właściwości przewodzące styku i zapobiega korozji. Opisane problemy spowodowały, że przełączniki z elementem piankowym wyszły już z użycia, a zamiast nich stosuje się przełączniki z gumową kopułką. Przełączniki z gumową kopułką przypominają budową przełączniki z elementem piankowym, jednak przewyższają je pod wieloma względami. Zamiast sprężyny zastosowano w nich gumową kopułkę i przycisk węglowy na spodzie klawisza. W momencie naciśnięcia klawisza tłoczek napiera na gumową kopułkę, która stawia mu opór, aż w końcu się załamuje, czemu towarzyszy wyraźne odczucie naciśnięcia klawisza. Wówczas przycisk węglowy łączy elektrycznie ścieżki znajdujące się pod klawiszem. Zwolnienie klawisza powoduje, że gumowa kopułką odzyskuje poprzedni kształt i klawisz wraca do pozycji początkowej. Zastosowanie kopuiki gumowej zamiast sprężyny powoduje, że naciśnięcie klawisza jest wyraźnie odczuwalne i nie trzeba w tym celu stosować dodatkowych „klipsów" czy innych elementów. Zastosowany przycisk węglowy poprawia odporność styków na korozję, a także samoczynnie oczyszcza metalowe pola przewodzące pod spodem klawisza. Gumowe kopułki są formowane w jednolity arkusz, który całkowicie chroni ścieżki przewodzące przed brudem, kurzem, a nawet małymi kroplami płynów. Taka konstrukcja klawiatury jest najprostszą ze wszystkich i wymaga najmniej elementów. Wszystkie te cechy sprawiły, że klawiatura ta uchodzi za najbardziej solidną i niezawodną i cieszy się największą popularnością spośród wszystkich typów klawiatur. Jeżeli omówiony właśnie typ klawiatury ma w ogóle jakąś wadę, to jest nią to, że naciśnięcie klawisza nie jest tak wyraźnie wyczuwalne, jak mogłaby sobie tego życzyć część użytkowników. Niektórzy użytkownicy woleliby, żeby naciśnięciu klawisza towarzyszyło jednak wyraźniejsze „kliknięcie". Przełącznik membranowy jest odmianą przełącznika z gumowym kapturkiem, jednak w klawiaturze zbudowanej z zastosowaniem przełączników membranowych poszczególne klawisze nie są rozmieszczone osobno, lecz zgrupowane w jeden arkusz spoczywający na podłożu będącym dużą gumową kopułką. Rozwiązanie to zmniejsza „drogę", jaką przebywa klawisz od pozycji początkowej do całkowitego naciśnięcia i dlatego nie jest uznawane za szczególnie wygodne przez osoby doświadczone, piszące bez patrzenia na klawiaturę. Klawiatura taka znajduje zastosowanie w ekstremalnych warunkach. Odizolowanie nasadek klawiszy od płytki drukowanej za pomocą arkusza powoduje, że klawiatury membranowe zdają egzamin w warunkach, w jakich żadna inna klawiatura by nie wytrzymała. Klawiatury z przełącznikami membranowymi wchodzą w skład terminali, które nie służą do wprowadzania dużych ilości danych, lecz np. obsługują kasy w sklepach.
Przełączniki pojemnościowe są obecnie jedynym spotykanym rodzajem przełączników niemechanicznych (zob. rysunek 9.7). Są one wśród przełączników tym, czym Cadillac wśród samochodów. Klawiatury zbudowane w oparciu o nie są znacznie droższe od popularnych klawiatur z gumowymi kopuikami, lecz są o wiele bardziej od nich odporne na brud i korozję, dając przy tym największy komfort towarzyszący naciśnięciu klawisza. Rysunek 9.7. Przełącznik pojemnościowy
Działanie przełącznika pojemnościowego nie polega na zamknięciu obwodu elektrycznego pomiędzy stykami. W przełączniku tym znajduje się para płytek, zazwyczaj wykonanych z plastiku. Zmiana pojemności elektrycznej przełączników jest wykrywana przez matrycę, nad którą znajdują się przełączniki. W momencie naciśnięcia klawisza, tłoczek klawisza zbliża górną płytkę w kierunku umocowanej na stałe płytki dolnej. Zazwyczaj mechanizm ten powoduje wyraźne od-czucie naciśnięcia klawisza wraz ze słyszalnym „kliknięciem". Wraz z przemieszczaniem się górnej płytki zmienia się pojemność pomiędzy płytkami. Zmiana pojemności jest wykrywana przez obwód układu komparatora. Ponieważ w przełączniku pojemnościowym nie ma żadnych styków metalowych, jest on prawie całkowicie odporny na korozję i brud. W takich przełącznikach nie występuje zjawisko odbijania styków, powodujące wyświetlenie na ekranie wielu znaków po pojedynczym naciśnięciu klawisza. Przełączniki pojemnościowe przodują również pod względem trwałości - wytrzymują co najmniej 25 milionów naciśnięć (pozostałe typy przełączników wytrzymują od 10 do 20 milionów naciśnięć). Naciśnięcie klawisza jest wyraźnie odczuwalne i towarzyszy mu słyszalne „kliknięcie". Jedyną wadą takiego rozwiązania jest jego koszt. Klawiatury oparte na przełącznikach pojemnościowych na-leżą do najdroższych, jednak ich jakość, trwałość oraz komfort użytkowania sprawiają, że są warte swojej ceny. Tradycyjnie już jedynym producentem klawiatur z przełącznikami pojemnościowymi jest firma IBM wraz z filiami produkującymi klawiatury, firmami Lexmark oraz Unicomp - między innymi dlatego klawiatury te zawsze zdecydowanie przewyższały parametrami klawiatury innych producentów.
Interfejs klawiatury Klawiatura składa się z pewnej liczby przełączników umieszczonych na siatce zwanej matrycą klawiatury. W momencie naciśnięcia danego klawisza, procesor klawiatury rozpoznaje go określając punkt matrycy, który przewodzi prąd. Procesor klawiatury potrafi również ustalić czas trwania pojedynczego naciśnięcia, może także wykryć jednoczesne wciśnięcie kilku klawiszy. Wbudowany w klawiaturę 16-bajtowy bufor sprzętowy potrafi obsłużyć szybkie lub jednoczesne naciśnięcia klawiszy i przekazać ich obsługę dalej. Gdy użytkownik naciska klawisz, to najczęściej na skutek odbijania styków przełącznika pojawia się seria szybkich włączeń i wyłączeń przełącznika.
Zjawisko to, zwane odbi-janiem styków (ang. key bounce), musi być wyeliminowane przez procesor klawiatury. Procesor musi odróżniać odbijanie styków od zamierzonego podwójnego naciśnięcia klawisza przez użytkownika. Jest to dość łatwe, ponieważ odbijanie styków odbywa się na tyle szybko, że użytkownik nie potrafi go zasymulować naciskając szybko kilka razy klawisz. Klawiatura komputera PC jest w rzeczywistości osobnym komputerem, który komunikuje się z płytą główną za pomocą specjalnego interfejsu szeregowego, przez który przesyłane są 11bitowe paczki danych, składające się z 8 bitów danych oraz dodatkowych bitów ramki i bitów kontrolnych. Chociaż jest to połączenie szeregowe, nie jest ono kompatybilne ze standardowym interfejsem szeregowym RS-232, wykorzystywanym do podłączenia modemu. W oryginalnej klawiaturze PC zastosowano w funkcji procesora klawiatury mikrokontroler 8048 firmy Intel. Nowsze modele klawiatur korzystają z układu 8049 z wbudowaną pamięcią ROM lub wykorzystują inny mikrokontroler kompatybilny z 8048 lub 8049. Np. firma IBM w klawiaturach 101-klawiszowych od początku wykorzystuje zmodyfikowaną wersję procesora 6805 firmy Motorola, który jest kompatybilny z układami Intela. Do zadań procesora klawiatury należy odczytanie stanu matrycy klawiatury, wyeliminowanie zjawiska odbijania styków, przyporządkowanie naciśniętemu klawiszowi określonego kodu przeszukania (ang. scan code) i przesłanie tego kodu do płyty głównej. Procesor klawiatury ma własną pamięć RAM, czasami również ROM i wbudowany interfejs szeregowy. Na płycie głównej oryginalnego komputera PC/XT szeregowy interfejs klawiatury jest połączony z układem 8255 PPI (Programmable Peripherial Interface). Układ ten jest z kolei podłączony do linii IRQ1 kontrolera przerwań. Zgłoszenie przerwania IRQ1 oznacza nadejście danych z klawiatury. Dane z klawiatury są przesyłane z układu 8255 do procesora poprzez port znajdujący się w przestrzeni wejść i a/ wyjść i a pod adresem 60h. Sygnał IRQ1 nakazuje procesorowi wykonanie skoku do podprogramu (INT 9h), w którym następuje interpretacja kodów klawiszy i podejmowanie dalszych decyzji.
W przypadku klawiatury typu AT, szeregowy interfejs klawiatury jest połączony ze specjalizowanym układem kontrolera klawiatury na płycie głównej. W oryginalnym komputerze AT jest nim układ 8042 UPI (Universal Peripherial Interface). W rzeczywistości mikrokontroler ten jest osobnym procesorem wyposażonym w 2 kB pamięci ROM i 128 bajtów pamięci RAM. Wersja 8742 tego układu jest wyposażona w pamięć EPROM (Erasable Programmable Read Only Memory), której zawartość może zostać skasowana i zaprogramowana na nowo. Często producent płyty wraz z nowszymi wersjami pamięci ROM dostarcza także nowy układ kontrolera klawiatury, ponieważ zawartość jego pamięci ROM również podlega modyfikacji. Na niektórych płytach głównych może się znajdować kontroler klawiatury 8041 (lub 8741), który od układów 8042 i 8742 różni się tylko ilością wbudowanej pamięci. W pozostałych przypadkach kontroler klawiatury jest wbudowany w układ kontrolera płyty głównej (ang. chipset). W komputerze AT mikrokontroler wbudowany w klawiaturę (układ 8028) przesyła dane do mikrokontrolera na płycie głównej (układ 8042). Mikrokontroler na płycie głównej może także przesyłać dane do klawiatury. Kiedy do kontrolera na płycie głównej nad-chodzą dane z klawiatury, zgłasza on przerwanie IRQ1 i przesyła dane do procesora głównego poprzez port o adresie 60h, tak samo jak w komputerze PC/XT. Układ kontrolera 8042 pracuje jako agent pośredniczący w wymianie informacji pomiędzy klawiaturą a procesorem głównym, zajmuje się tłumaczeniem kodów klawiszy oraz podejmuje szereg innych akcji. Może on również przesyłać do klawiatury dane otrzymane od procesora głównego poprzez port 60h. Przesyłanie kodów rozkazów dla kontrolera lub odczytywanie jego stanu przez procesor główny odbywa się za pośrednictwem portu o adresie 64h. Po przesłaniu kodu rozkazu następuje z reguły przesłanie danych do lub z klawiatury za pośrednictwem portu 60h. W większości starszych typów komputerów układ 8042 kontroluje ponadto stan linii adresowej A20, zapewniając dostęp do pamięci o rozmiarach większych niż l MB. W nowszych płytach głównych funkcja ta została wbudowana w układ kontrolera płyty głównej. Kontrola linii A20 przez układ 8042 jest szerzej omówiona w rozdziale 7. pt. „Pamięć komputera", w części opisującej pamięć HMA (High Memory Area). Funkcje obsługi klawiatury Jeżeli dany klawisz jest stale naciśnięty, to klawiatura cały czas przesyła jego kod do płyty głównej - jest to tzw. aulorepetycja. W klawiaturze AT prędkość wysyłania kodu naciśniętego klawisza (ang. typematic ratę) można ustawić za pomocą odpowiedniego rozkazu przesłanego procesorowi klawiatury. Nie jest to możliwe we wcześniejszych typach klawiatur PC/XT, ponieważ komputery te mają jednokierunkowy interfejs klawiatury. W przypadku klawiatury AT jest możliwe programowe ustawienie częstotliwości wysyłania kodów klawiszy oraz upływu czasu od naciśnięcia klawisza, po jakim ma się rozpocząć przesyłanie. W systemie DOS, począwszy od wersji 4.0, parametry te można ustawić za pomocą rozkazu MODE. Wartością domyślną parametru RATE jest 20 dla komputerów PC i kompatybilnych, a 21 dla komputerów IBM PS/2. Wartością domyślną parametru DELAY jest 2. Tak więc w większości komputerów znaki z klawiatury są przesyłane z szybkością l0cps (znaków na sekundę), a opóźnienie, po jakim rozpocznie się przesyłanie znaków, wynosi 0,5 sekundy. W celu ustawienia na nowo parametrów klawiatury w systemie DOS, należy wpisać na-stępujące polecenie: MODĘ CON [:] [RATE=r DELAY=d] W przypadku starszej wersji klawiatury lub komputera, po wprowadzeniu rozkazu MODĘ CON może pojawić się następujący komunikat: Function not supported on this computer Oznacza to, że klawiatura lub komputer (lub jedno i drugie) nie są wyposażone w interfejs dwukierunkowy albo że rozkaz MODĘ nie jest obsługiwany. Rozwiązaniem problemu może być wymiana ROM BIOS lub klawiatury na nowszą wersję, co jednak w przypadku starszego modelu komputera prawdopodobnie będzie nieopłacalne.
Wiele wersji ROM BIOS umożliwia zmianę szybkości reakcji klawiatury, jednak nie wszystkie wersje zapewniają obsługę szybkości i czasu opóźnienia. System operacyjny Windows sam kontroluje ustawienia parametrów klawiatury. Ozncza to, że załadowanie Windows „przykryje" ustawienia systemu DOS dokonane za pomocą rozkazu MODE. Parametry klawiatury w systemie Windows można łatwo sprawdzić i zmodyfikować. W tym celu należy w Panelu sterowania wybrać ikonę Klawia-tura, wówczas pojawią się suwaki Opóźnienie powtarzania i Częstotliwość powtarzania. Następnie należy przesunąć odpowiednio jeden z suwaków. W celu przetestowania ustawień można kliknąć na pole edycyjne pod spodem i próbować naciskać klawisze. Ustawienia w Panelu sterowania, mimo że zmieniane w sposób graficzny, ciągle są zgodne z naszymi wartościami opóźnień i przesunięć, jak w tabelach 9.1 i 9.2
Kody i numery klawiszy Naciśnięty klawisz jest lokalizowany przez procesor wbudowany w klawiaturę (układ 8048 lub 6805). Następnie procesor ten wysyła do płyty głównej szeregowo paczkę danych zawierającą kod naciśniętego klawisza. Kontroler klawiatury 8042 znajdujący się na płycie głównej AT tłumaczy kod klawisza na tzw. kod systemowy według jednej z (maksymalnie) trzech tablic. Otrzymany kod jest następnie przesyłany do procesora głównego. Znajomość kodów klawiszy może się okazać użyteczna w razie wystąpienia problemów z klawiaturą lub w sytuacji kiedy kody klawiszy lub kody systemowe są wykorzystywane w aplikacji. Kiedy jakiś klawisz nie działa, jego kod jest zazwyczaj zwracany przez oprogramowanie diagnostyczne, w tym także POST (Power On Self Test - seria testów wykonywanych przy starcie komputera) i konwencjonalne programy diagnostyczne. Oznacza to, że uszkodzony klawisz trzeba zidentyfikować poprzez jego kod. W tabelach 9.3 - 9.7 zebrano kody klawiszy klawiatur 83-, 84- i 101-klawiszowych. Posługując się tymi tabelami można łatwo ustalić, który klawisz nie działa prawidłowo lub wymaga przeczyszczenia. W klawiaturach 101-klawiszowych mogą występować trzy różne zbiory kodów klawiszy. Domyślnym zbiorem jest zbiór pierwszy. W niektórych komputerach, np. PS/2, zbiór drugi jest wykorzystywany w czasie testu POST. Np. w używanym przeze mnie komputerze IBM 75P pierwszy zbiór jest wykorzystywany w czasie testu POST, natomiast w czasie normalnej pracy wykorzystywany jest zbiór drugi. Rozwiązanie takie spotyka się rzadko, jest ono natomiast dość uciążliwe, gdy zachodzi potrzeba zlokalizowania nieprawidłowo działającego klawisza (miałem okazję się o tym przekonać). Warto o tym pamiętać wówczas, gdy identyfikuje się klawisz na podstawie jego kodu. Firma IBM przypisuje każdemu klawiszowi unikatowy numer, odróżniający go jednoznacznie od pozostałych klawiszy. Jest to ważne w przypadku innych niż amerykańska wersji językowych klawiatur. Większość modeli zagranicznych klawiatur nie ma klawisza o numerze 29, ma za to dwa dodatkowe klawisze o numerach 42 i 45. Łączna liczba klawiszy w tych klawiaturach wynosi 102 zamiast 101 klawiszy. Rysunek 9.8 przedstawia numery i rozmieszczenie klawiszy oryginalnej klawiatury 83klawiszowej. W tabeli 9.3 zebrano kody klawiszy wraz z odpowiadającymi im numerami klawiszy i znakami.
Rysunek 9.8. Numery i rozmieszczenie klawiszy klawiatury 83-klawisza wej
Tabela 9.1. Numery i kody klawiszy 83-klawiszowej klawiatury PC/XT
Numer Kod Klawisz klawisza klawisza
Numer klawisza
Kod klawisza
Klawisz
1
01
Esc
29
ID
Ctrl
2 3 4 5 6 7 8
02 03 04 05 06 07 08
1 2 3 4 5 6 7
30 31 32 33 34 35 36
1E 1F 20 21 22 23 24
a s d f g h j
9 10 11
09 OA OB
8 9 0
37 38 39
25 26 27
k 1
12
OC
-
40
28
-
13 14
OD OE
= Backspace
41 42
29 2A
' Lewy Shift
15 16
OF 10
Tab q
43 44
2B 2C
\ z
17 18 19
11 12 13
w e r
45 46 47
2D 2E 2F
X c V
20 21
14 15
ty
48 49
30 31
bn
22 23 24 25
16 17 18 19
u i 0 P
50 51 52 53
32 33 34 35
m , /
26 27 28
1A 1B 1C
[ ] Enter
54 55 56
36 37 38
Prawy Shift
57
39
Spacja
71
47
Keypad (Home)
58
3A
Caps Lock
72
48
Keypad (Strzałka w dół)
59 60 61
3B 3C 3D
Fl F2 F3
73 74 75
49 4A 4B
Keypad (PgUp) Keypad Keypad (Strzałka lewo)
62
3E
F4
76
4C
Keypad 5
63
3F
F5
77
4D
Keypad 6
64
40
F6
78
4E
Keypad +
65
41
F7
79
4F
Keypad 1 (End)
66
42
F8
80
50
67
43
F9
81
51
Keypad (Strzałka w dół) Keypad (PgDn)
68
44
F10
82
52
Keypad 0 (Ins)
69
45
Num Lock
83
53
Keypad . (Del)
70
46
Scroll Lock
Alt
Rysunek 9.9. Numery klawiszy i rozmieszczenie znaków klawiatury 84-kla\viszowej
Rysunek 9.10 przedstawia numery i rozmieszczenie klawiszy klawiatury 101klawiszowej. W tabelach 9.5-9.7 zebrano kody klawiszy ze wszystkich trzech zestawów, wraz z odpowiadającymi klawiszom numerami i znakami. Domyślnym zestawem jest zestaw pierwszy, pozostałe dwa są rzadko wykorzystywane. Rysunek 9.11 przedstawia układ klawiszy typowej 102-klawiszowej klawiatury zagranicznej na przykładzie klawiatury brytyjskiej.
Rysunek 9.10. Numery klawiszy i rozmieszczenie znaków klawiatury 101-klawiszowej (wersja amerykańska)
Rysunek 9.11. Numery klawiszy i rozmieszczenie znaków klawiatury 101-klawiszowej
Trzy nowe klawisze 104-klawiszowej klawiatury Windows mają własne, unikatowe kody. Przedstawia je tabela 9.8. Znajomość numerów i kodów klawiszy jest przydatna do rozwiązywania problemów z nieprawidłowo działającymi klawiszami. Programy diagnostyczne informują o takich klawiszach zwracając ich kody, które są różne dla różnych klawiatur, różne są też reprezentowane przez nie znaki i ich lokalizacja.
Tabela 9.. Kody nowych klawiszy I04-klawis:o\vej klawiatury Windows
Nowy klawisz
Kod klawisza Kod klawisza Kod klawisza Zestaw 1 Zestaw 2 Zestaw 3
Lewy klawisz E0.5B Windows Prawy klawisz E0.5C Windows Klawisz aplikacji E0,5D
E0.1F
E0.8B
E0,27
E0,8C
E0.2F
E0.8D
Klawiatury międzynarodowe Po otrzymaniu kodu klawisza (ang. scan code), komputer uruchamia procedurę przekształcającą go w odpowiedni znak kodu ASCII. W Stanach Zjednoczonych są to znaki odpowiadające literom na klawiaturze amerykańskiej. Jednak owo przekształcenie nie jest w żaden sposób zależne od tego, jakie nadruki mają klawisze na klawiaturze. Systemy Windows pozwalają więc zainstalować wiele rodzajów klawiatur, mimo że do komputera jest przyłączona cały czas nasza stara poczciwa klawiatura. Należy przy okazji pamiętać, że zainstalowanie danej klawiatury pracującej w danym języku nie jest jednoznaczne z zainstalowaniem systemu Windows w tym języku. Wybrany rodzaj klawiatury jest to raczej informacja dla Windows, jak ma rozumieć naciskane przez nas klawisze.
Rodzaje wtyczek i gniazdek klawiatury i myszy Kabel łączący klawiaturę z komputerem ma na końcu od strony komputera jedną z dwóch możliwych wtyczek. W większości klawiatur innych producentów niż IBM kabel jest połączony z klawiaturą poprzez wtyczkę, która jest zamknięta wewnątrz obudowy klawiatury. Odłączenie takiego kabla od klawiatury wymaga otwarcia obudowy. Klawiatury 101klawiszowe firmy IBM mają kabel, który ma wtyczkę zarówno od strony komputera, jak i od strony klawiatury, dzięki czemu kabel taki można łatwo odłączyć od klawiatury. Na jednym końcu kabla znajduje się wtyczka SDL (Shielded Data Link), którą wkłada się do gniazdka w klawiaturze, a na drugim końcu jest wtyczka DIN, którą wkłada się do gniazdka w komputerze. Można osobno kupić klawiaturę firmy IBM i kabel do niej. Nowsze klawiatury 101klawiszowe wyposażone są w dołączany zewnętrznie kabel, którego wtyczka od strony klawiatury przypomina wtyczkę telefoniczną. Istnieją dwa rodzaje wtyczek wkładanych do gniazdka w komputerze: * 5-końcówkowa wtyczka DIN, pasująca do gniazdka większości komputerów PC z płytą główną dopasowaną do obudowy typu Baby-AT. * 6-końcówkowa wtyczka mini-DlN, pasująca do gniazdka większości komputerów PS/2 i komputerów PC typu Low Profile (z płytą główną LPX). Na rysunku 9.12 i w tabeli 9.9 przedstawione są oba rodzaje wtyczek i gniazdek wraz z rozmieszczeniem końcówek
Rysunek 9.12.
Wtyczki igniazdka klawiatury i myszy DIN Niemiecka Norma Przemysłowa (Deutsche Industrie Norm), komitet ustalający standard miar obowiązujące w Niemczech. SDL Shielded Data Link, wtyczka ekranowana opracowana AMP l wykorzystywana. In. przez firmę IBM w kablach do klawiatur.
6-końcówkowe gniazdko mini-DIN na płycie głównej służy do podłączenia myszy i ma takie samo rozmieszczenie końcówek, jak gniazdko klawiatury. Pakiety danych przesyłane z klawiatury różnią się jednak od pakietów przesyłanych z myszy. Oznacza to, że jest możliwe podłączenie myszy PS/2 do gniazdka klawiatury typu mini-DIN albo klawiatury z wtyczką mini-DIN do portu myszy, jednak ani mysz, ani klawiatura nie będą poprawnie działać.
Klawiatury z dodatkowymi funkcjami Sporo klawiatur spotykanych na rynku jest wyposażonych w dodatkowe funkcje, które nie są określone w standardzie. Klawiatury te mogą mieć wbudowany kalkulator, zegar, urządzenie typu pointing device, specjalne rozmieszczenie klawiszy, a nawet możliwość programowania klawiszy.
Klawiatura Dvoraka W obecnym stuleciu wielokrotnie podejmowano próby zmiany układu klawiszy w celu zwiększenia szybkości pisania i poprawy ergonomii. Około roku 1936 August Dvorak i William L. Dealy opracowali klawiaturę o innym rozkładzie klawiszy niż powszechny obecnie układ QWERTY. Dvoraka miał wspomagać równomierne wykorzystanie obydwu rąk w czasie pisania. Znaki na klawiaturze są rozmieszczone w ten sposób, że samogłoski znajdują się w rzędzie pod lewą dłonią, a najczęściej wykorzystywane spółgłoski są zgrupowane w rzędzie pod prawą dłonią. Rozwiązanie to miało znacznie zwiększyć szybkość pisania, jednak większość testów dowiodła, że wzrost szybkości pisania był niewielki. Użytkownicy klawiatur okazali się odporni na zmiany i klawiatura Dvoraka nie osiągnęła zbyt dużej popularności, a układ QWERTY do dziś jest najbardziej rozpowszechnionym układem klawiatury.
Klawiatura ergonomiczna Zamiast zmiany rozmieszczenia klawiszy pojawił się trend do zmiany kształtu klawiatury. Na rynku pojawiła się pewna ilość tzw. klawiatur ergonomicznych. Celem tych rozwiązań jest lepsze dopasowanie klawiatury do naturalnego układu dłoni. Najpopularniejsze z tych rozwiązań polega na podziale klawiatury na dwie części wygięte do tyłu. Niektóre klawiatury, np. klawiatura Lexmark Select Easy, pozwalają na zmianę kąta wygięcia, w innych kąt wygięcia jest stały, np. w klawiaturze Microsoft Natural Keyboard. Podział klawiatury na dwie części lepiej dostosowuje klawiaturę do układu nadgarstków w czasie pisania. Rozwiązania te mogą podnieść wydajność i szybkość pisania, jak również mogą zapobiegać powstawaniu kontuzji dłoni zwanej zespołem cieśni nadgarstka. Obecnie prawie każdy producent klawiatur ma w ofercie jakiś model klawiatury ergonomicznej, do której również odnoszą się omówione już rozwiązania poprawiające jakość przełączników i „czucie" naciskanych klawiszy. Producent klawiatury Microsoft Natu-ral Keyboard - firma Keytronics - wykorzystuje tanie przełączniki własnej produkcji, wymagające niedużej siły przy naciskaniu. Osobom, które wolą „twarde" klawiatury z przełącznikami wysokiej jakości, polecam modele firm Lexmark, Select-Ease, Alps, NMB Technologies czy Lite-On. Klawiatury te są wyposażone w przełączniki mechaniczne wysokiej jakości, dające komfortowe „czucie" naciskanych klawiszy. Klawiatura firmy Lexmark pozwala przy tym na regulację kąta wygięcia w praktycznie dowolnym zakresie, łącznie z kątem, przy którym przypomina ona standardową klawiaturę. Można nawet zupełnie oddzielić od siebie obydwie części klawiatury. Klawiatura Lexmark wyróż-nia się także wbudowanym oparciem na dłonie. Ma także powiększony klawisz spacji i klawisze kursora z obu stron klawiatury. Rozwiązania poprawiające ergonomię klawiatury wydają się dobrym pomysłem, jednak przynajmniej na razie użytkownicy są raczej odporni na nowości i żadna z tzw. klawiatur ergonomicznych nie wyparła jeszcze klawiatury o standardowym układzie klawiszy.
Klawiatury programowalne Niektórzy producenci klawiatur, np. firma Maxi-Switch, opracowali rodzaj klawiatury, której klawisze można zaprogramować na nowo. Można przypisać im różne funkcje, a nawet przeprogramować całą klawiaturę. Takie klawiatury programowalne można było kiedyś znaleźć w ofercie niektórych firm, np. firmy Gateway. Zdarzyło mi się raz używać takiej klawiatury w czasie prowadzenia seminarium, lecz niestety miałem trudności z przyswojeniem sobie funkcji programujących klawiaturę i gdy przypadkowo naciskałem na klawisze programujące, klawiatura przechodziła w tryb programowania i musiałem ją zresetować. Problemem są dodatkowe klawisze programujące, które zwiększają szerokość klawiatury, czyniąc ją szerszą od większości standardowych klawiatur. Szybko się okazało, że funkcje programujące są tak rzadko wykorzystywane, że nie warto było zawracać sobie nimi głowy. Doświadczenia te sprawiły, że pozostałem przy standardowym modelu klawiatury.
Rozwiązywanie problemów z klawiaturą i jej naprawa Nieprawidłowe działanie klawiatury najczęściej wynika z dwóch banalnych przyczyn. Osobnym problemem, jednak rzadziej występującym, jest przerywana reakcja na naciśnięty klawisz. Najczęstsze przyczyny niesprawności to: * uszkodzony kabel, * nie działające klawisze.
Uszkodzenie kabla można łatwo wykryć, o ile defekt objawia się ciągle. Jeżeli brak reakcji na jakikolwiek klawisz albo jeżeli rezultatem naciśnięcia dowolnego klawisza jest pojawienie się niewłaściwego znaku lub inna nieprawidłowa sytuacja, to prawdopodobnie przyczyna tkwi w kablu. Rozwiązanie problemu jest proste, zwłaszcza gdy pod ręką jest kabel zapasowy. Należy zamienić podejrzany kabel na kabel z działającego prawidłowo zestawu i sprawdzić, czy problem dalej istnieje. Jeżeli tak, to przyczyna leży poza kablem. Kabel można także sprawdzić za pomocą multimetru cyfrowego. Przyrząd ten ma wbudowany tester, który sprawdza przepływ prądu przez przewód, sygnalizując akustycznie przerwy. Sprawdzając każdy przewód z osobna, najlepiej skręcić go drutem z końcówkami multimetru, aby wyeliminować w ten sposób jakiekolwiek przerwy w obwodzie. W razie odkrycia przerwy w którymś z przewodów należy wymienić kabel lub całą klawiaturę, o ile takie rozwiązanie jest tańsze. Wymiana klawiatury na nową nie jest zbyt kosztowna, czasami może być tańsza niż wymiana kabla. Ujawnienie problemu z klawiaturą jest również możliwe, gdy komputer zgłosi błąd w czasie wykonywania testu POST. W większości komputerów kody błędów klawiatury mają charakterystyczny format liczbowy 3xx. Jeżeli w czasie wykonywania testu POST komputer zgłosi taki błąd, to najlepiej zapisać numer kodu błędu. Niektóre wersje ROM BIOS nie zgłaszają kodów błędów, lecz wypisują tylko lakoniczny komunikat: Keyboard stuck key failure Tak reagują komputery wyposażone w Phoenix BIOS wtedy, gdy nie działa jakiś klawisz. Niestety, na podstawie tego komunikatu nie można ustalić, o który klawisz chodzi. Jeżeli numer kodu w formacie 3xx jest poprzedzony dwucyfrową liczbą szesnastkową, to liczba ta oznacza kod wadliwego klawisza. Wówczas należy sprawdzić w jednej z tabel znajdujących się w tej części rozdziału, który klawisz działa błędnie. Na podstawie tej tabeli można odczytać dany klawisz według jego kodu. Zdjęcie plastykowej nasadki z takiego klawisza i oczyszczenie jego przełącznika często rozwiązuje problem. Prosty test gniazdka klawiatury na płycie głównej można przeprowadzić sprawdzając napięcie na niektórych końcówkach gniazdka. W tym celu należy posłużyć się tabelą 9.10 z dalszej części rozdziału i zmierzyć napięcie na różnych końcówkach gniazdka klawiatury. Aby zapobiec ewentualnemu uszkodzeniu komputera lub klawiatury, przed wyjęciem wtyczki klawiatury z gniazdka należy wyłączyć zasilanie komputera. Dopiero wtedy można wyjąć wtyczkę i włączyć ponownie komputer. Napięcie należy mierzyć pomiędzy końcówką masy i pozostałymi końcówkami według opisu z tabeli 9.10. Jeżeli mierzone napięcia mieszczą się w podanych przedziałach, to interfejs klawiatury na płycie głównej najprawdopodobniej działa poprawnie. Tabela 9.10. Napięcia na końcówkach w gniazdku klawiatury Numer końcówki wtyczki DIN
Numer końcówki wtyczki mini-DIN Sygnał
Napięcie
1
5
Zegar
+2,0 V do +5,5 V
2
1
Dane
+4,8 V do +5,5 V
3
-
Zarezerwowane -
4
3
Masa
-
Jeżeli zmierzone napięcie nie odpowiada powyższym wartościom, może to świadczyć 0uszkodzeniu płyty głównej. W przeciwnym razie wina może leżeć po stronie kala lub klawiatury. Jeżeli zachodzi podejrzenie, że przyczyną niesprawności jest kabel, to najprostszym rozwiązaniem będzie wymiana go na kabel sprawny. Jeżeli komputer nadal nie pracuje poprawnie, być może będzie trzeba wymienić całą klawiaturę lub płytę główną. W wielu nowszych komputerach gniazdka klawiatury i myszy na płycie głównej są wyposażone w bezpiecznik, który można wymienić. Należy przyjrzeć się uważnie wszystkim bezpiecznikom na płycie głównej, znajdującym się w pobliżu gniazdek klawiatury 1 myszy. Na niektórych płytach głównych układ kontrolera klawiatury(8042)jest włożony w podstawkę. Możliwa jest wówczas jego wymiana. Najlepiej zaopatrzyć sięw nowy układ u producenta płyty głównej lub ROM BIOS-u - układ kontrolera klawiatury ma wbudowaną pamięć ROM. Oto lista standardowych kodów błędów zgłaszanych przez program POST i programy diagnostyczne:
kod błędu
Opis
3xx
Błędy klawiatury
301
Reset klawiatury lub nie działający klawisz (xx 301, xx jest szesnastkowym kodem klawisza)
302
Klawiatura jest zablokowana (przekręcony zamek)
302
Błąd klawiatury w czasie testu użytkownika
303
Błąd klawiatury lub płyt) głównej, uszkodzenie kontrolera klawiatury
304
Błąd klawiatury lub płyty głównej, sygnał zegara ma stan wysoki
305
Niesprawne źródło napięcia +5 V, przepalony bezpiecznik klawiatury (na płycie głównej)
341
Błąd klawiatury
342
Uszkodzenie kabla
343
Uszkodzenie diod LED na klawiaturze lub uszkodzenie kabla
365
Uszkodzenie diod LED na klawiaturze lub uszkodzenie kabla
366
Uszkodzenie interfejsu klawiatury
367
Uszkodzenie diod LED na klawiaturze lub uszkodzenie kabla
Ostrożnie z rozbieraniem klawiatury Naprawa i czyszczenie klawiatury często wymaga jej rozebrania. Rozbierając klawiaturę, trzeba wiedzieć, kiedy przestać! Niektóre klawiatury dają się rozebrać na niezliczoną ilość małych elementów, tak że prawie niemożliwe jest ich złożenie w całość. W klawiaturach firmy IBM zasadniczo można wyróżnić cztery główne podzespoły:
* kabel * obudowę * blok klawiszy * plastykowe nasadki na klawisze Klawiaturę można z łatwością rozłożyć na takie części i wymienić dowolną z nich. Nie należy jednak rozbierać bloku klawiszy, gdyż grozi to rozsypaniem się setek małych sprężyn, klipsów i nasadek. Ponowne złożenie wszystkich tych elementów w jedną całość nie jest najlepszym sposobem spędzania wolnego czasu. Może się też okazać, że niemożliwe będzie poprawne złożenie klawiatury w warunkach domowych. Rysunek 9.13 przedstawia otwartą obudowę typowej klawiatury. Innym problemem jest niemożność zakupienia osobno mniejszych części, takich jak przełączniki czy sprężynki. Takie elementy można dostać jedynie demontując inną klawiaturę. Jeżeli kiedykolwiek będziesz miał klawiaturę nie nadającą się już do użycia, to trzymaj ją jako źródło części zapasowych. Któregoś dnia może się przydać
Rysunek 9.13. Typowe elementy klawiatury
Większość czynności naprawczych sprowadza się do wymiany kabla lub przeczyszczenia którejś części klawiatury, takiej jak końcówki kabla czy pola kontaktowe pod klawiszami. Kabel jest na ogół źle traktowany - jego końce są rozciągane, wyginane i skręcane. Nawet po poluzowaniu kabla może się okazać, że nie kontaktują wtyczki albo przewody wewnątrz kabla są przerwane. Dlatego dobrze jest mieć zapasowy kabel do każdej posiadanej klawiatury. Wszystkie rodzaje kabli są dołączane do klawiatury i komputera za pomocą wtyczki, dzięki czemu jest możliwa łatwa wymiana kabla bez potrzeby lutowania przewodów czy wtyczki. W starszych klawiaturach, 83- i 84-klawiszowych trzeba otworzyć obudowę, aby uzyskać dostęp do wtyczki, do której przymocowany jest kabel. W nowszych modelach 101klawiszowej klawiatury firmy IBM kabel jest dołączany zewnętrznie za pomocą wtyczki przypominającej wtyczkę telefoniczną. Dzięki temu klawiatury firmy IBM/Lexmark mogą być poprzez prostą wymianę kabla dołączone do praktycznie każdego komputera PC (oprócz oryginalnego modelu PC). Przykładowo, jedyną różnicę pomiędzy klawiaturą IBM AT a IBM PS/2 stanowi kabel. PS/2 ma kabel z mniejszą wtyczką od strony komputera. Kabel AT jest koloru czarnego i ma większą wtyczkę DIN. Możliwa jest wymiana klawiatur 101-klawiszowych pomiędzy różnymi komputerami pod warunkiem, że korzysta się z właściwego kabla. Praktycznie jedyną naprawą klawiatury, jaką użytkownik może samodzielnie wykonać, jest wymiana kabla i oczyszczenie osobno przełączników, całego bloku klawiszy i końcówek wtyczki. Pojedyncze sprężynki i przełączniki nie są dostępne jako osobne części, ponadto trudno z powrotem złożyć klawiaturę rozebraną na tak drobne elementy. Poza czyszczeniem klawiatury użytkownik może wymienić cały blok klawiszy (praktycznie oznacza to wymianę całej klawiatury) lub kabel.
Czyszczenie klawiatury Jednym z najlepszych sposobów na zapewnienie prawidłowej pracy klawiatury jest jej okresowe czyszczenie. Zapobiegawczo powinno się odkurzać klawiaturę raz w tygodniu lub przynajmniej raz w miesiącu. Można także użyć sprężonego powietrza w puszce (jest dostępne w sklepach elektronicznych) i wydmuchać nim brud i kurz z klawiatury. Przedtem powinno się jednak obrócić klawiaturę spodem do góry, tak aby mogły z niej wylecieć cząstki brudu i kurzu. We wszystkich typach klawiatur można wyjąc nasadki klawiszy, co jest wygodne, gdy trzeba oczyścić klawisz, który się klei albo działa w sposób przerywany. Np. częstym problemem jest nieciągła reakcja na naciśnięcie klawisza, spowodowana na ogół obecnością brudu pod klawiszem. Doskonałym narzędziem do zdejmowania nasadek klawiszy z większości klawiatur jest przyrząd w kształcie litery U do wyciągania układów scalonych z podstawek. Jego zakrzywiony koniec należy włożyć pod nasadkę i dociskając drugi koniec uchwycić nasadkę i wyjąć ją z klawiatury. Sposób ten jest nawet lepszy niż użycie specjalnego przyrządu firmy IBM przeznaczonego do wyciągania nasadek. Po wyjęciu nasadki przedmuchaj sprężonym powietrzem przestrzeń pod spodem w celu usunięcia brudu. Po umieszczeniu nasadki na jej miejscu sprawdź działanie klawisza. W przypadku klawiatur 83- lub 84-klawiszowych nie należy wyjmować nasadki z klawisza spacji. Klawisz ten bardzo trudno założyć z powrotem. W nowszych klawiaturach 101-klawiszowych założenie tego klawisza ułatwia podstawka z kawałka drutu. W przypadku klawiatur 83- lub 84-klawiszowych nie należy wyjmować nasadki z klawisza spacji. Klawisz ten bardzo trudno założyć z powrotem. W nowszych klawiaturach 101-klawiszowych założenie tego klawisza ułatwia podstawka z kawałka drutu. W przypadku klawiatur 83- lub 84-klawiszowych nie należy wyjmować nasadki z klawisza spacji. Klawisz ten bardzo trudno założyć z powrotem. W nowszych klawiaturach 101-klawiszowych założenie tego klawisza ułatwia podstawka z kawałka drutu. Innym problemem jest rozlanie na klawiaturę płynu, chociaż polanie klawiatury napojem czy kawą niekoniecznie musi spowodować jej zniszczenie. Powinno się wówczas jak najszybciej przepłukać klawiaturę wodą destylowaną. Należy częściowo rozebrać klawiaturę i przemyć wodą jej elementy (opis demontażu klawiatury umieszczony jest w dalszej części tego rozdziału). Jeżeli rozlany płyn już wysechł, należy przez chwilę moczyć klawiaturę w wodzie destylowanej. Kiedy klawiatura jest już czysta, weź kolejne kilka litrów wody destylowanej i polewaj nią klawiaturę, lejąc wodę z wierzchu i pomiędzy klawiszami, aby zmyć wszelkie pozostałości brudu. Po dokładnym wysuszeniu klawiatura powinna działać jak nowa. Zaskoczenie może budzić fakt, że namoczenie klawiatury wodą nie powoduje uszkodzenia jej elementów. Należy jednak używać wody destylowanej, wolnej od pozostałości chemicznych i minerałów. Ważne jest również, aby klawiatura była całkowicie sucha, zanim zacznie się jej używać, w przeciwnym razie niektóre jej elementy mogą ulec zwarciu.
Wymiana klawiatury W większości przypadków może się okazać, że wymiana klawiatury jest tańsza od jej naprawy, zwłaszcza gdy klawiatura jest wewnętrznie uszkodzona lub zepsute są przełączniki. Części zamienne do klawiatur są trudno dostępne, poza tym trudno jest prawidłowo zamontować nową część w klawiaturze. Ponadto klawiatury z tanich zestawów komputerowych często pozostawiają wiele do życzenia. Ich klawisze reagują na naciśnięcie w sposób „bagienny", brak im odpowiednio „twardej" reakcji. Używanie takiej klawiatury może przyprawić o frustrację, zwłaszcza osoby piszące szybko, bez patrzenia na klawiaturę. Dlatego należy rozważyć wymianę klawiatury na lepszą.
Bodaj najwyższej jakości klawiatury produkuje firma IBM, a ściślej jej filia, firma Lexmark. Firma ta wydzieliła się kilka lat temu z IBM jako osobny podmiot produkujący drukarki i klawiatury. Lexmark jest producentem większości markowych klawiatur i drukarek sprzedawanych przez IBM, zaopatruje również sprzedawców komputerów kompatybilnych i użytkowników indywidualnych. Oznacza to, że przy odrobienie szczęścia Twój komputer może być wyposażony w klawiaturę Lexmark, a jeżeli nie, to zawsze możesz ją dokupić. W tabeli 9.11 zebrano oznaczenia wszystkich klawiatur i kabli firmowanych znakiem IBM. Numery te mogą być pomocne, gdy chce się kupić klawiaturę bezpośrednio od IBM lub też od firmy niezależnej. Wiele takich firm sprzedaje klawiatury IBM po znacznie niższych cenach niż producent - zarówno nowe modele, jak i zregenerowane, starsze klawiatury. Identyczną klawiaturę, jednak bez znaczka firmowego IBM, można nabyć w firmie Lexmark. Elemt
Oznaczenie
83-klawiszowa klawiatura w wersji amerykańskiej wraz z kablem 8529297 Kabel do klawiatury 83-klawiszowej. 8529168 84-klawiszowa klawiatura w wersji amerykańskiej wraz z kablem. 8286165 Kabel do klawiatury 84-klawiszowej. 8286146 101-klawiszowa klawiatura w wersji amerykańskiej bez diod LED. 1390290 101-klawiszowa klawiatura w wersji amerykańskiej z diodami LED. 6447033 101-klawiszowa klawiatura w wersji amerykańskiej z diodami LED (logo PS/2). 1392090 Kabel o długości 185 cm do klawiatury 101-klawiszowej z wtyczką DIN. 6447051 Kabel o długości 185 cm do klawiatury 101-klawiszowej z wtyczką mini-DIN . 61X8898 Kabel o długości 185 cm do klawiatury 101-klawiszowej z ekranowaną wtyczką 27F4984 mini-DIN. 3-metrowy kabel do klawiatury 101-klawiszowej z wtyczką mini-DIN. 72X8537 Zwraca uwagę fakt, że oryginalne 83- i 84-klawiszowe klawiatury IBM są sprzedawane z kablem z większą, 5-końcówkową wtyczką, przy czym kabel jest na stałe przyłączony do klawiatury. Klawiatury 101-klawiszowe są natomiast zawsze sprzedawane (przynajmniej przez IBM) bez kabla. Kabel taki trzeba kupić osobno. Dostępne są zarówno kable do starszych komputerów z większą wtyczką DIN, jak i do komputerów PS/2 (i wielu kompatybilnych) z mniejszą wtyczką mini-DIN. Ostatnio firma IBM rozpoczęła sprzedaż zestawów klawiatur w ramach programu o nazwie IBM Options. Celem tego programu jest sprzedaż detaliczna klawiatur użytkownikom komputerów IBM i komputerów kompatybilnych z IBM, zakupionych u innych sprzedawców. W Stanach Zjednoczonych sprzedaż w ramach programu IBM Options odbywa się poprzez sieci handlu detalicznego, takie jak CompUSA, Elek Tek i Computer Discount Waterhouse (CDW). Klawiatury sprzedawane w ramach tego programu są znacznie tańsze niż kupowane osobno. Przy sprzedaży udzielana jest pełna gwarancja, a sprzedawane zestawy są wyposażone w kabel. W tabeli 9.12 wymieniono kilka klawiatur sprzedawanych w ramach programu IBM Options wraz z ich numerami katalogowymi.
Tabela 9.12. Klawiatury sprzedawane w handlu detalicznym w ramach programu IBM options Element
Oznaczenie
101-klawiszowa klawiatura IBM z kablem (wtyczka 92G7454 DIN). 101 -klawiszowa klawiatura IBM z kablem 92G7453 (wtyczka mini-DIN). 92G7456 101-klawiszowa klawiatura IBM z kablem (wtyczka 92G7455 DIN), wbudowane urządzenie typu trackball. 92G7461 101-klawiszowa klawiatura IBM z kablem (wtyczka mini-DIN), wbudowane urządzenie typu trackball. Klawiatury IBM/Lexmark są zbudowane w oparciu o przełączniki pojemnościowe, które charakteryzują się największą trwałością ze wszystkich przełączników i wymagają najmniej zabiegów pielęgnacyjnych. W przełącznikach tych naciśnięcie klawisza powoduje zmianę pojemności elektrycznej elementów przewodzących. W przełącznikach tych nie ma elementów ulegających zużyciu, obecnych w przełącznikach mechanicznych, ani żadnych styków metalowych, co czyni je zupełnie odpornymi na brud i korozję -czynniki, które są bolączką innych przełączników. Przełączniki zastosowane w klawiaturach IBM/Lexmark charakteryzują się bardzo wyraźną reakcją klawisza na naciśnięcie i ta cecha również może być wzorem dla pozostałych producentów. Nigdy nie zdarzyło mi się używać klawiatury, która by przewyższała pod tym względem klawiatury IBM/Lexmark, chociaż jest to moje indywidualne odczucie. Obecnie każdy komputer, na którym pracuję, w tym także wiele klonów PC, jest wyposażony w klawiaturę Lexmark. Klawiatury te można nabyć po rozsądnej cenie bezpośrednio w firmie Lexmark lub za pośrednictwem jej dystrybutorów. Czasopisma takie jak Processor czy Computer Hotline (USA) zamieszczają reklamy klawiatur firmowanych znaczkiem IBM, które kosztują poniżej 100 dolarów. W ofercie firm IBM/Lexmark znajdują się też inne modele klawiatur, których ceny mieszczą się w rozsądnych granicach. Dostępne są modele z wbudowanym urządzeniem typu trackball czy rewolucyjnym urządzeniem trackpoint. Jest to niedużych rozmiarów drążek, który znajduje się pomiędzy klawiszami G, H i B. Patent na trackpoint jest własnością firm IBM/Lexmark, a urządzenie to po raz pierwszy zostało zamontowane w komputerze IBM Thinkpad (komputer typu laptop). Obecnie klawiatury te są sprzedawane również producentom klonów PC, a licencję zakupiły inne firmy, m.in. Toshiba. Trzeba pamiętać, że klawiatura ta jest wyposażona w kabel z wtyczkami mini-DIN podłączanymi do gniazdka myszy oraz gniazdka klawiatury i współpracuje tylko z portem myszy typu PS/2. Na rynku są również dostępne wysokiej jakości klawiatury innych producentów. Kilka firm, m.in. Alps, Lite On i NMB Technologies wytwarza klawiatury, w których komfort pisania jest zbliżony do klawiatur IBM/Lexmark. Cechują się one bardzo dobrą reakcją klawisza na naciśnięcie i wydają przy tym wyraźny odgłos. Klawiatury te są moim drugim z kolei faworytem, po klawiaturach firmy Lexmark. Wysokiej jakości klawiatury firmy Maxi-Switch znajdują się w zestawach wielu producentów sprzętu komputerowego,m.in. firmy Gateway 2000. Klawiatury te również charakteryzują się właściwą reakcją na naciśnięcie klawisza i są godne polecenia. Wielu producentów może umieścić na klawiaturze logo firmy, która ją zamawia (np. logo firmy Gateway na klawiaturze Maxi-Switch), co jest idealnym rozwiązaniem dla producentów klonów, którym zależy na rozpoznawalnym znaku handlowym.
Dodatkowe publikacje Wszystkim, którzy chcą się dowiedzieć czegoś więcej na temat klawiatur i ich interfejsów, polecam dokumentację opublikowaną przez firmę IBM. Spis poszczególnych pozycji tej dokumentacji jest dostępny u sprzedawców komputerów. Wartość tej dokumentacji powinni szczególnie docenić producenci klonów, którzy nie publikują informacji technicznej na tak wysokim poziomie jak firma IBM, a których komputery są pod wieloma względami podobne lub nawet identyczne z komputerami IBM - w końcu dlatego są określane jako „kompatybilne z IBM". Większość mojej wiedzy pochodzi z uważnej lektury dokumentacji technicznej IBM
Mysz Mysz została opracowana w roku 1964 przez Douglasa Englebarta, który pracował wówczas w Stanford Reserch Institute (SRI) nad projektem sponsorowanym przez Stanford University. Oficjalna nazwa myszy brzmiała wówczas X-Y Position Indicator for a Display System. W 1973 firma Xerox wykorzystała mysz w swoim nowatorskim komputerze Alto. Niestety, w owych czasach komputery te znajdowały się w fazie eksperymentalnej i były wykorzystywane głównie do celów naukowych. W 1979 r. kilka osób z firmy Apple, w tym Steve Jobs, zostało zaproszonych na prezentację komputera Allo i jego oprogramowania systemowego. Zainspirowany tą prezentacją Steve Jobs roztoczył wizję komputera przyszłości, którego nieodłącznymi elementami miały być: mysz jako urządzenie sterujące kursorem oraz graficzny interfejs GUI. Firma Apple niezwłocznie uwzględniła te założenia w projekcie komputera Lisa i zwabiła do pracy nad nim kilkanaście osób z firmy Xerox. Chociaż Xerox zaprezentował w roku 1981 komputer Star 8010 wykorzystujący te rozwiązania, to jednak był on drogi, miał kiepską strategię marketingową i nie przystawał do swoich czasów. W 1983 firma Apple zaprezentowała Lisę, pierwszy komputer Apple wykorzystujący mysz. Nie odniósł on jednak oszałamiającego sukcesu, głównie z powodu wysokiej ceny, wynoszącej 10000 dolarów, lecz w tym samym czasie Jobs pracował już w Apple nad następcą Lisy, komputerem Macintosh. Komputer ten pojawił się w sprzedaży w roku 1984 i chociaż nie odniósł natychmiastowego sukcesu, jego popularność stale rosła. Wiele osób uważa, że mysz, podobnie jak GUI, jest ściśle związana z Macintoshem, jednak rozwiązanie to zostało zapożyczone od firm SRI i Xerox. Natomiast nie ma wątpliwości, że firma Apple Macintosh, a po niej Microsoft Windows i OS/2 przyczyniły się do wzrostu popularności nowego interfejsu użytkownika i włączenia go w krwioobieg komputerów PC. Wprawdzie mysz nie zagościła od razu w świecie PC, jednak obecnie graficzne środowiska GUI, takie jak Windows czy OS/2, praktycznie nie potrafią się bez niej obejść. Z tego powodu mysz wchodzi w skład prawie każdego sprzedawanego obecnie zestawu komputerowego. Wielu producentów opracowało myszy o różnych kształtach i rozmiarach. Niektórzy opracowali urządzenie zwane trackball, przypominające odwróconą mysz. W urządzeniu tym dłoń steruje bezpośrednio kulką, a nie plastykową obudową. Firma IBM opracowała nawet bardzo sprytne urządzenie zwane trackpoint, które może pracować zarówno jako mysz (kulka na dole), jak i jako trackball (kulka jest na wierzchu). Większość urządzeń typu trackball ma kulki znacznie większe niż te, które są wbudowane w mysz. Pomijając rozmiar kulki i przeciwną reakcję na jej ruch, urządzenie trackball jest identyczne z myszą pod względem budowy, podstawowych funkcji i interfejsu.
Obecnie największymi producentami myszy komputerowych są firmy Microsoft i Logitech. Produkowane myszy mogą występować w kilku odmianach, jednak ich użytkowanie i konserwacja różnią się nieznacznie. W standardowej myszy znajduje się kilka podzespołów: * obudowa, na której spoczywa dłoń i która jest przesuwana po stole; *obracająca się kulka, która wykrywa ruchy i przesyła informację o nich do komputera; * przyciski (zazwyczaj dwa)służące do dokonywania wyboru; * kabel łączący mysz z komputerem; * wtyczka, którą wkłada się do gniazdka w komputerze. Obudowa jest wykonana z tworzywa i składa się z zaledwie kilku części. Na górze obudowy, w miejscach, gdzie zazwyczaj spoczywają palce, znajdują się dwa przyciski, choć może być ich więcej. Dodatkowych przycisków można używać tylko wówczas, gdy pozwala na to oprogramowanie. Pod spodem obudowy znajduje się gumowa kulka, która obraca się w trakcie przesuwania myszy po podłożu. Ruchy tej kulki są zamieniane na sygnały elektryczne, trafiające za pośrednictwem kabla do komputera. W niektórych myszach ruch kulki jest wykrywany za pomocą czujników optycznych, które posługują się w tym celu specjalną siatką Kabel myszy może być dowolnej długości, zazwyczaj ma od 140 do 180 cm. Kształt wtyczki zależy od interfejsu, poprzez który mysz jest dołączona do komputera. Wykorzystuje się do tego celu trzy podstawowe interfejsy i jedną ich kombinację. Mysz komunikuje się z komputerem poprzez tzw. sterownik urządzenia (ang. device driver), który może być ładowany jako osobny program, może również być wbudowany w system operacyjny. Np. do pracy w systemach Windows czy OS/2 nie jest wymagany żaden dodatkowy sterownik, lecz używanie myszy w systemie DOS wymaga załadowania osobnego sterownika. Sterownik myszy, bez względu na to, czy jest wbudowany w system operacyjny czy nie, tłumaczy sygnały elektryczne nadchodzące z myszy na informację o zmianie jej położenia i informację o stanie przycisków. Wewnętrzna budowa myszy nie jest zbyt skomplikowana. Obroty kulki powodują obracanie się dwóch rolek, z których jedna odpowiada za współrzędną x, a druga za współrzędną y. Rolki te z kolei powodują obracanie się dwóch małych dysków z otworami, które naprzemiennie przepuszczają i zatrzymują światło. Obroty dysków są rejestrowane przez małe czujniki na podczerwień, które obserwują migotania wiązki świetlnej „przecinanej" przez dysk. Migotanie światła jest następnie tłumaczone na ruch wzdłuż danej osi.
Rysunek 9.14. Typowy mechanizm opto mechaniczny mys
Interfejs myszy Mysz może być podłączona do komputera poprzez jeden z trzech interfejsów: * szeregowy,
interfejs
dedykowany port myszy na płycie głównej, interfejs na karcie rozszerzającej.
Port szeregowy Popularną metodą dołączania myszy w większości starszych komputerów PC jest podłączanie jej poprzez port szeregowy. Tak jak w przypadku innych urządzeń szeregowych, wtyczka na końcu kabla myszy może być wtyczką żeńską 9- lub 25-końcówkową. Tylko kilka końcówek wtyczki DB-9 lub DB-25 jest wykorzystywanych do komunikacji pomiędzy myszą a sterownikiem, jednak wtyczka myszy ma typowo wszystkie 9 lub 25 końcówek. Większość komputerów PC ma dwa porty szeregowe, dlatego mysz może być podłączona do jednego z nich: COM1 lub COM2. Sterownik myszy w czasie inicjowania przegląda porty i stara się ustalić, do którego z nich jest podłączona mysz. Ponieważ mysz szeregowa nie jest dołączona do komputera bezpośrednio, sama nie korzysta z zasobów systemu. Zamiast tego korzysta z zasobów portu, do którego jest podłączona. Np. mysz podłączona do portu COM2 wykorzystuje najczęściej przerwanie IRQ3 i adresy 2F8h2FFh w przestrzeni adresowej wejścia/wyjścia.
Port myszy na płycie głównej (PS/2) Obecnie większość nowych komputerów jest wyposażona w przeznaczony specjalnie dla myszy port na płycie głównej. Pierwszym komputerem z portem myszy na płycie głównej był IBM PS/2 zaprezentowany w roku 1987, dlatego interfejs na płycie głównej jest często określany jako interfejs myszy PS/2. Nie znaczy to, że taka mysz może być podłączona tylko do komputera PS/2. Mysz PS/2 może ona być podłączona do każdego komputera wyposażonego w taki port na płycie głównej. Wtyczka myszy PS/2 jest najczęściej tą samą wtyczką mini-DIN, którą wykorzystuje się w nowszych modelach klawiatur. W rzeczywistości port myszy na płycie głównej jest połączony z kontrolerem klawiatury 8042. We wszystkich komputerach PS/2 z tyłu obudowy znajdują się gniazdka mini-DIN, które służą do podłączenia klawiatury i myszy.
Większość komputerów Slimline, kompatybilnych z PS/2, jest wyposażona w gniazdka miniDIN w celach oszczędnościowych. Płyty główne pozostałych producentów mają gniazdko myszy typu pin-header, gdyż standardowe obudowy nie mają wolnych otworów na gniazdko mini-DIN. Wówczas w zestawie znajduje się zazwyczaj kabel przejściowy, który łączy gniazdko typu pin-header na płycie głównej z gniazdkiem mini-DIN, do którego podłącza się mysz. Podłączanie myszy do portu na płycie głównej jest najlepszym możliwym rozwiązaniem, ponieważ nie traci się portu szeregowego, a parametry myszy nie są ograniczone parametrami elektrycznymi portu szeregowego. Standardowe zasoby myszy PS/2 to przerwanie IRQ/12 oraz porty o adresach 60h i 64h w przestrzeni wejścia/wyjścia. Pod tymi adresami dostępne są porty kontrolera klawiatury 8042, który jednocześnie jest odpowiedzialny za obsługę myszy PS/2. Linia przerwania IRQ12 większości komputerów jest zazwyczaj wolna i taka pozostaje w większości komputerów z magistralą ISA, które mają port myszy na płycie głównej, ponieważ specyfikacja magistrali ISA nie dopuszcza współdzielenia linii przerwań przez różne urządzenia.
Kombinacja portu szeregowego i portu na płycie głównej (PS/2) Istnieją myszy, które mogą być podłączane albo do portu myszy, albo do portu szeregowego. Z powodu swojej elastyczności rozwiązanie takie cieszy się największą popularnością. Układ elektroniczny wbudowany w mysz automatycznie wykrywa rodzaj portu i w zależności od niego konfiguruje odpowiednio mysz. Kabel takiej myszy zaopatrzony jest zazwyczaj we wtyczkę mini-DIN, a w zestawie znajduje się kabel przejściowy łączący wtyczkę mini-DIN z 9- lub 25-końcówkowym gniazdkiem portu szeregowego. Niektóre osoby próbują za pomocą kabla przejściowego podłączyć mysz szeregową do portu myszy PS/2 albo mysz PS/2 do portu szeregowego. Tak dołączona mysz nie będzie działać, i to nie z winy kabla przejściowego. Jeżeli nie jest wyraźnie powiedziane, że dana mysz może pracować jako mysz szeregowa, znaczy to, że może pracować tylko jako mysz PS/2 - i odwrotnie. Opis rodzaju myszy można zazwyczaj znaleźć na spodzie jej obudowy.
Podłączenie myszy do magistrali komputera Mysz magistralowa (bus mouse) znajduje zastosowanie w komputerach, które nie mają ani portu myszy na płycie głównej, ani wolnego portu szeregowego. Nazwa mysz magistralowa wzięła się stąd, że do podłączenia takiej myszy potrzebna jest dodatkowa karta wkładana w jeden z wolnych LOTów na płycie głównej, a sterownik urządzenia komunikuje się z myszą poprzez magistralę główną komputera. Z punktu widzenia użytkownika nie ma żadnych różnic pomiędzy działaniem myszy magistralowej a zwykłej myszy, jednak wielu użytkownikom nie odpowiada zajmowanie osobnego LOTu przez kartę myszy. Dostępne są karty myszy magistralowej przeznaczone do LOTów typu ISA. Karty te są 8bitowe i powodują ograniczenie liczby przerwań IRQ nie powodujących kolizji. Potencjalnym niebezpieczeństwem jest wtyczka myszy typu mini-DIN, taka jak w myszy PS/2, przy braku kompatybilności pomiędzy obiema myszami. Nie słyszałem o przypadku uszkodzenia płyty głównej z wbudowanym portem myszy, do którego podłączono mysz magistralową. Karta myszy magistralowej pozwala na ustawienie adresów w przestrzeni wejścia/wyjścia i numeru przerwania IRQ, lecz wybór przerwania jest ograniczony do 8 bitów. Oznacza to, że zazwyczaj trzeba wybrać przerwanie 5 w komputerach z dwoma portami szeregowymi, ponieważ pozostałe linie przerwań są już wykorzystane. Firma Microsoft określa czasami mysz magistralową jako mysz podłą-czaną do portu (ang. inport mouse).
Najnowocześniejszy port komputera dla urządzeń zewnętrznych, jaki tylko ktokolwiek widział lub o nim słyszał, to USB (Universal Serial Bus). Pozwala on na podłączenie 127 urządzeń. Klawiatury USB mają często w swoich wtyczkach gniazdo działające jako przejściówka dla dalszych urządzeń USB. Niektóre klawiatury USB są wyposażone w gniazdo dla myszy PS/2, dzięki czemu mysz podłączamy bezpośrednio do klawiatury, a nie do komputera.
Rozwiązywanie problemów z niesprawną myszą Przyczyny błędnego działania myszy mogą tkwić w sprzęcie albo w oprogramowaniu. Fizycznie mysz jest dość prostym urządzeniem, dlatego sprawdzenie jej części sprzętowej nie zajmie zbyt wiele czasu. Natomiast wykrywanie i usuwanie problemów wynikających z niedopasowanego lub źle ustawionego oprogramowania może być dłuższe i bardziej skomplikowane.
Problemy sprzętowe W czasie używania myszy mogą się pojawić dwa rodzaje problemów sprzętowych. Najczęstszym jest zabrudzenie myszy, a jego rozwiązanie polega na jej oczyszczeniu. Przyczyną pozostałych problemów, trudniejszych do rozwiązania, są konflikty przerwań.
Czyszczenie myszy Jeżeli zauważysz, że kursor porusza się po ekranie w sposób szarpany, powinieneś przeczyścić mysz. Urywany ruch kursora jest spowodowany cząstkami brudu i kurzu, które osadzając się wokół kulki i walców, ograniczają ich swobodę ruchu. Z punktu widzenia sprzętu mysz jest mało skomplikowanym urządzeniem, a jej czyszczenie jest stosunkowo prostą czynnością. Pierwszym etapem jest obrócenie myszy dołem do góry, tak aby była widoczna gumowa kulka. Dostęp do wnętrza myszy uzyskuje się po zdjęciu pokrywy w kształcie pierścienia wokół kulki. Na spodzie myszy może być nawet instrukcja otwierania pokrywy (w niektórych myszach trzeba w tym celu odkręcić śrubkę). Po zdjęciu pokrywy widać gumową kulkę spoczywającą we wnęce. Jeżeli obrócisz teraz mysz na drugą stronę, to gumowa kulka wypadnie ci na dłoń. Przyjrzyj się jej uważnie. Kulka może być szara lub czarna, lecz nie powinno być na jej powierzchni żadnych widocznych zabrudzeń. Jeżeli jednak są, należy przemyć kulkę w wodzie z mydłem lub w słabym rozpuszczalniku, np. alkoholu i wysuszyć ją. Przyjrzyj się teraz wnęce, w której spoczywa kulka. Na jej bokach znajdują się dwa lub trzy wałki, które są obracane przez kulkę. Jeżeli na tych wałkach widać kurz lub brud, to trzeba go usunąć. Najlepiej użyć w tym celu sprężonego powietrza z puszki. Można też skorzystać z elektrycznego urządzenia do czyszczenia powierzchni. Jakikolwiek brud czy kurz utrudnia ruch wałków i mysz nie będzie pracować płynnie. W celu zmontowania myszy włóż z powrotem kulkę i ostrożnie załóż pokrywę. Mysz powinna wyglądać dokładnie tak, jak przed zdjęciem pokrywy.
Konflikty przerwań Przerwania są wewnętrznymi sygnałami komputera, sygnalizującymi potrzebę obsługi jakichś zdarzeń. W przypadku myszy przerwanie pojawia się za każdym razem, kiedy ma ona do przekazania jakąś informację dla sterownika. Jeżeli wystąpi konflikt polegający na wykorzystaniu tego samego przerwania jednocześnie przez mysz i inne urządzenie, to mysz albo nie będzie działać prawidłowo, albo przestanie pracować.
Konflikty przerwań nie występują, gdy mysz jest podłączona przez przeznaczony dla niej port, występują natomiast w przypadkach pozostałych interfejsów. Porty myszy wbudowane w płytę główną prawie zawsze wykorzystują przerwanie IRQ12. W komputerze z portem myszy na płycie głównej żadne inne urządzenie (karta) nie powinno korzystać z przerwania IRQ12, gdyż spowoduje to powstanie konfliktu. W przypadku myszy szeregowej konflikt powstaje najczęściej po dołączeniu trzeciego i czwartego portu szeregowego. Dzieje się tak, ponieważ w rozwiązaniu magistrali ISA porty szeregowe o numerach nieparzystych są często niepoprawnie skonfigurowane i wykorzystują to samo przerwanie, podobnie porty o numerach parzystych (2 i 4). Jeżeli więc mysz jest podłączona do portu COM2, a wewnętrzny modem do portu COM4, to urządzenia te prawdopodobnie korzystają z tego samego przerwania i nie można ich używać w tym samym czasie. Możliwe będzie jednoczesne korzystanie z myszy i modemu, gdy jedno z urządzeń zostanie podłączone do innego portu szeregowego. Np. mysz podłączona do COM1 i modem podłączony do COM4 nie wchodzą w konflikt i można z nich korzystać jednocześnie, gdyż wykorzystuj ą różne przerwania IRQ. Najlepszym sposobem uniknięcia konfliktów jest takie skonfigurowanie portów, by każde urządzenie korzystało z innego, odrębnego przerwania. Dostępne są karty portów szeregowych COM3 i COM4, które nie korzystają z przerwań portów COM1 i COM2. Porty szeregowe na tych kartach wykorzystują nieużywane przerwania IRQ10, 11, 12, 15 lub 5. Stanowczo odradzam taką konfigurację komputera, w której dwa urządzenia korzystają z tego samego przerwania . Jeśli podejrzewamy, że mysz spowodowała konflikt przerwań, w celu ustalenia numeru przerwania myszy możemy skorzystać z takich programów jak Menedżer urządzeń czy Microsoft Diagnostics (MSD). MSD jest dołączany bezpłatnie do systemu DOS począwszy od wersji 6.0 i Windows od wersji 3.0. Jeżeli używasz systemu PC DOS lub OS/2, to MSD możesz uzyskać z BBS-u firmy Microsoft. Należy pamiętać, że programy takie jak MSD, które próbują wykryć numer przerwania IRQ, nie są w stu procentach dokładne - w rzeczywistości w wielu przypadkach są niedokładne - i zazwyczaj wymagają załadowania sterownika badanego urządzenia. Menedżer urządzeń Windows 95 jest częścią oprogramowania Plug-and-Play tego systemu i jest na ogół całkowicie dokładny w przypadku sprzętu Plug-and-Play. Choć czasami mogą pojawić się problemy, to jednak wymienione programy powinny z łatwością zidentyfikować przerwanie myszy, o ile załadowany został uprzednio sterownik. Po zidentyfikowaniu IRQ myszy może się okazać, że do poprawnej pracy komputera potrzebna będzie zmiana numerów przerwań myszy magistralowej lub innych urządzeń. Jeżeli sterownik nie potrafi rozpoznać myszy, niezależnie od jej typu, to można spróbować podłączyć do komputera inną mysz, która działa prawidłowo w innym systemie. Może być to jedyna metoda stwierdzenia, czy zaistniały problem jest spowodowany przez zepsutą mysz. Zdarzył mi się raz problem polegający na zawieszeniu komputera przez zepsutą mysz zaraz po załadowaniu jej sterownika; nawet programy w rodzaju MSD nie mogły uzyskać dostępu do myszy. W takiej sytuacji rozwiązaniem może być ładowanie programu MSD z opcją/I, co powoduje że MSD omija etap wstępnej 'detekcji urządzenia. Następnie należy uruchomić każdy test z osobna, wraz z testem myszy, zwracając uwagę na test, przy którym komputer się zawiesi. Jeżeli zawieszenie nastąpi w czasie testu myszy, to źródłem problemu jest mysz lub jej port. Spróbuj wymienić mysz na inną-jeżeli to nie pomoże, trzeba będzie wymienić kartę portu szeregowego lub kartę myszy magistralowej. Jeżeli awarii uległ port myszy na płycie głównej, to konieczna będzie wymiana całej płyty, zazwyczaj kosztowna.
Można też odłączyć port myszy za pomocą zworek na płycie głównej lub w programie SETUP zawartym w BlOS-ie i zainstalować mysz szeregową lub magistralową. Takie rozwiązanie pozwala na dalsze korzystanie z komputera bez konieczności wymiany płyty głównej.
Problemy spowodowane oprogramowaniem Problemy spowodowane oprogramowaniem mogą mieć bardziej mylące objawy niż problemy sprzętowe. Problemy te przejawiają się najczęściej tym, że mysz „po prostu nie działa". Zanim stwierdzimy, że mysz jest zepsuta, należy sprawdzić działanie sterownika myszy i aplikacji.
Oprogramowanie sterownika myszy Aby mysz prawidłowo działała, musi zostać zainstalowany jej sterownik. W systemie DOS sterownik ładuje się za pomocą odpowiedniego polecenia umieszczonego w pliku CONFIG.SYS lub AUTOEXEC.BAT, natomiast w systemie WINDOWS sterownik jest ładowany automatycznie. Zwykle powinno się korzystać z domyślnych sterowników wbudowanych w środowisko WINDOWS lub OS/2, gdyż w tych systemach nie jest wymagany żaden dodatkowy sterownik. Jedynym powodem ładowaniem osobnego sterownika (przez CONFIG.SYS) jest korzystanie z myszy w aplikacjach DOS-a. Jeżeli chcesz, by mysz pracowała poprawnie w systemie DOS lub, inaczej mówiąc, poza systemami Windows i OS/2, to jej sterownik musi być załadowany za pomocą pliku CONFIG.SYS lub AUTOEXEC.BKT. Program sterownika ładowany przez AUTOEXC. BAT nazywa się MOUSE.COM (spotyka się też inne nazwy tego sterownika, w zależności od jego producenta). Jak powiedziałem wcześniej, w systemach Windows i OS/2 żaden dodatkowy sterownik nie jest potrzebny, ponieważ wymagane sterowniki zostały wbudowane w system. Pierwszym etapem jest upewnienie się, że odpowiedni rozkaz ładujący sterownik do pamięci znajduje się w pliku CONFIG.SYS lub AUTOEXEC.BAT. Jeżeli rozkazu takiego nie ma, to trzeba dodać do pliku odpowiednią linię według dokumentacji myszy. Np. poleceniem ładującym sterownik myszy w pliku CONFIG.SYS jest następujący rozkaz: DEVICEHIGH= \DOS\MOUSE. SYS Składnia i działanie tego rozkazu mogą się różnić w zależności od tego, czy sterownik ładuje się do górnego, czy do konwencjonalnego obszaru pamięci oraz w zależności od ścieżki dostępu do sterownika. Jednym z poważniejszych problemów dotyczących osobnych sterowników myszy jest ich ładowanie do pamięci UMB. Starsze niż 9.0 wersje sterownika wymagają bardzo dużego rozmiaru bloku w pamięci UMB, rzędu 40-56 kB, natomiast po załadowaniu sterownika obszar ten zmniejsza się do ok. 20 kB. Nie jest żadną pociechą fakt, że sterownik zajmuje tylko 20 kB, skoro do załadowania i zainicjowania wymaga bardzo dużego obszaru pamięci. Najlepszą radą, jakiej mogę tutaj udzielić, jest zalecenie korzystania ze sterowników 9.01 lub nowszych firmy Microsoft. Sterownik jest dołączany do nowszych myszy Microsoft, a także sprzedawany osobno. Współpracuje on z każdą myszą kompatybilną z myszą Microsoft, co w praktyce oznacza współpracę z każdą myszą. Za tzw. upgrade do nowego sterownika firma Microsoft życzy sobie $50, natomiast sterownik w zestawie z myszą można kupić za $35 lub taniej, co czyni zakup samego sterownika nieopłacalnym. Za darmo firma Microsoft dołącza tylko sterownik z systemu DOS 6.22 lub starszy. Firma IBM dołączała nowy sterownik do systemu PC-DOS w wersji 6.3, jednak od wersji 7.0 systemu PC-DOS znowu dołącza starszy sterownik 8.22.
Wersja 9.01 lub nowsza sterownika myszy wymaga mniejszej ilości pamięci i ładuje się automatycznie do obszaru pamięci wysokiej (high memory area), co jest jedną z zalet tego sterownika. Sterownik myszy najpierw ładuje się do obszaru pamięci konwencjonalnej, następnie zmniejsza swój rozmiar do 24 kB i przeładowuje się do obszaru pamięci wysokiej. Inną jego zaletą jest wyszukiwanie najmniejszego pasującego bloku UMB zamiast największego istniejącego bloku, co następuje wtedy, gdy sterownik jest ładowany za pomocą rozkazów LOADHIGH, LH lub DEYICEHIGH. Poprzednia wersja sterownika nie mogła się załadować do pamięci górnej, jeżeli największy blok UMB miał rozmiar mniejszy niż 40-56 kB, ponadto ładowanie do obszaru pamięci górnej nie odbywało się automatycznie. Możliwość automatycznego ładowania do pamięci górnej sterownika myszy w wersji 9.01 lub nowszej daje duże oszczędności pamięci i dlatego warto się zaopatrzyć w ten sterownik. Mam nadzieję, że technika automatycznego ładowania się i automatycznej optymalizacji sterownika myszy będzie również wykorzystywana w sterownikach innych urządzeń. Takie podejście znacznie ułatwia zarządzanie pamięcią. Po dodaniu odpowiedniej linii do pliku AUTOEXEC.BAT lub CONFIG.SYS należy ponownie zainicjować komputer i obserwować, czy sterownik ładuje się prawidłowo. Jeżeli pomimo umieszczenia odpowiedniego rozkazu w pliku sterownik się nie ładuje, należy uważnie czytać komunikaty wypisywane na ekranie w czasie startu systemu. W pewnym momencie powinien się ukazać komunikat od sterownika myszy, informujący o jego załadowaniu. Jeżeli komunikat taki nie został wyświetlony, to trzeba ustalić, co jest tego przyczyną. Mogło się zdarzyć, że sterownik nie mógł zostać załadowany, ponieważ nie była dostępna wystarczająca ilość wolnej pamięci. Po ustaleniu przyczyny należy usunąć nieprawidłowość i ponownie załadować sterownik. Tu znowu ujawniają się zalety dobrego gospodarowania pamięcią przez sterownik 9.01. Możliwa jest także sytuacja, kiedy dana aplikacja wymaga załadowania konkretnej wersji sterownika. Mysz może nie pracować poprawnie, jeżeli w czasie pracy z aplikacją, która wymaga nowego sterownika, używana jest jego starsza wersja. Wówczas należy się skontaktować ze sprzedawcą myszy i zażądać wymiany sterownika na nowszy. Sterowniki myszy są też osiągalne poprzez BBS lub w sieci CompuServe (w USA), natomiast firma Microsoft nie udostępnia bezpłatnie swoich sterowników. Można też kupić nową mysz wraz z nowszą wersją sterownika, co jest tańsze niż kupno samego sterownika .
Problemy z aplikacjami Jeżeli mysz odmawia współpracy z konkretną aplikacją, to należy sprawdzić, czy w części konfiguracyjnej aplikacji zaznaczono (o ile to konieczne), że korzysta się z myszy. Jeżeli pomimo to mysz nie działa z tą aplikacją, a działa z innymi aplikacjami, skontaktuj się z działem serwisu producenta oprogramowania.
Mysz Microsoft IntelliMouse W 1996 roku firma Microsoft zaprezentowała nową odmianę myszy o nazwie IntelliMouse. Zewnętrznie mysz ta przypomina standardową mysz firmy Microsoft, jedyną różnicę stanowi nieduże szare pokrętło umieszczone pomiędzy prawym a lewym przyciskiem. Jest to jedyna istotna zmiana, jaka nastąpiła w budowie myszy w ciągu minionych lat. Pokrętło ma dwie funkcje. Pierwszą z nich jest funkcja przewijania, która pozwala na przewijanie np. zawartości dokumentu na stronie WWW za pomocą wskazującego palca. Naciskane pokrętło zachowuje się jak trzeci przycisk myszy.
O ile myszy z trzema przyciskami nie są żadną nowością, o tyle funkcja przewijania stanowi milowy krok naprzód w rozwoju tego typu urządzeń sterujących. Nie trzeba już klikać na pasek przewijania z prawej strony ekranu lub odrywać prawej ręki od myszy, żeby nacisnąć któryś z klawiszy kursora. Zamiast tego wystarczy pokręcić pokrętłem do przodu lub do tyłu. Rozwiązanie to jest niezwykle wygodne, zwłaszcza gdy przegląda się stronę WWW, pracuje w edytorze tekstów lub arkuszu kalkulacyjnym. W przeciwieństwie do myszy z trzema przyciskami mało prawdopodobne jest przypadkowe naciśnięcie przycisku-pokrętła. Jedyną wadą myszy IntelliMouse jest fakt, że jej nowa funkcja może być obsługiwana tylko przez aplikacje, które zostały w tym celu odpowiednio zmodyfikowane. W czasie debiutu myszy program Microsoft Internet Explorer był już przystosowany do obsługi nowej funkcji, podobnie pakiet Office 97. Np. oprócz możliwości przewijania ekranu, w większości aplikacji pakietu Office 97 trzymanie wciśniętego klawisza Ctrl w czasie kręcenia kółkiem zmienia stopień powiększenia (zoom). Kółko z przyciśniętym klawiszem Shift pozwala na powiększanie i zmniejszanie rysowanych ramek. W miarę pojawiania się nowych wersji oprogramowania nowe możliwości będą wykorzystywane jeszcze szerzej. Sterownik myszy IntelliMouse 2.0 łączy w sobie cechy poprzedniego sterownika z kilkoma interesującymi nowymi funkcjami. Funkcja zwana ClickLock pozwala na przenoszenie (ang. drop) obiektów myszą bez konieczności trzymania wciśniętego prawego klawisza myszy. Można dostosować tę funkcję do indywidualnych preferencji użytkownika podając w ustawieniach czas trzymania naciśniętego przycisku, po jakim funkcja ClickLock się uaktywnia. Możliwy jest też scrolling o zadaną liczbę linii lub ekranów po każdym naciśnięciu pokrętła. Można tak ustawić sterownik, że po naciśnięciu przycisku-kółka będą ignorowane wszystkie akcje specyficzne dla aplikacji i we wszystkich aplikacjach Windows będzie wykonywana jedna z czterech funkcji: *podwójne kliknięcie lewym przyciskiem, * otwarcie systemu pomocy aplikacji, * przełączenie do programu Windows Explorer, * rozwinięcie Menu Start. Pozostałe funkcje sterownika są takie same jak poprzednio, łącznie z funkcją Snap To -która powoduje przesunięcie kursora na domyślne miejsce w okienku dialogowym - a także funkcją powodującą pozostawianie śladu pizez poruszający się kursor oraz funkcją powodującą zniknięcie kursora po rozpoczęciu pisania.
Trackpoint II/III 20 października 1992 roku firma IBM zaprezentowała nowe, rewolucyjne urządzenie o nazwie Trackpoint II, które jest integralną częścią komputerów ThinkPad 700 i 700C. Urządzenie to, często określane jako pointing stick, składa się z małego gumowego kapturka, który znajduje się na klawiaturze nad klawiszem B, pomiędzy klawiszami G i H. Trackpoint jest pierwszym tak nowatorskim pomysłem skonstruowania urządzenia przesuwającego kursor na ekranie od momentu powstania myszy 30 lat temu. Trackpoint nie zajmuje miejsca na biurku, nie musi być specjalnie przestawiany w tryb dla osób prawo czy leworęcznych, nie ma części ruchomych, które się psują i brudzą, a także, co najważniejsze, nie wymaga odrywania rąk od klawiatury w czasie pisania. Jest prawdziwym dobrodziejstwem dla osób szybko piszących.
Miałem szczęście spotkać się osobiście z twórcą tego urządzenia na targach COMDEX/Windows World w Chicago. Prezentował on w rogu pawilonu IBM zmodyfikowaną klawiaturę z małym silikonowym elementem na środku. Urządzenie, które prezentował, było prototypem wykonanym ręcznie w oparciu o standardową klawiaturę, a sam wynalazca starał się zwrócić na nie uwagę publiczności. Zostałem zaproszony do wzięcia udziału w zabawie przy jednej z takich klawiatur, podłączonej do komputera demonstracyjnego. Naciskając palcem wskazującym na wystający z klawiatury element, mogłem przesuwać kursor myszy po ekranie. Urządzenie jako takie było nieruchome i nie przypominało w niczym joysticka. Zamiast tego kapturek z gumy silikonowej był podłączony do czujnika siły nacisku palca i według tego przesuwał kursor na ekranie. Im mocniej go naciskałem, tym szybciej kursor się przesuwał. Poprzez nieznaczną zmianę przyłożonej siły mogłem płynnie przesuwać kursor w dowolnym kierunku. Silikonowy element „słuchał" mojego palca, pomimo że byłem spocony od przeciskania się w tłumie. Po upływie zaledwie kilku minut ruchy palca zrobiły się prawie automatyczne, zupełnie tak, jakbym myślami „nakazywał" kursorowi, w którą stronę ma się przesunąć. Po chwili namysłu stwierdziłem, że urządzenie to jest z pewnością największym wynalazkiem wśród urządzeń przesuwających kursor od czasów wynalezienia myszy! Trackpoint może nie tylko zastępować mysz, ale jest prawdziwym dobrodziejstwem dla osób szybko piszących, które, podobnie jak ja, nie lubią odrywać rąk od klawiatury w czasie pisania. Wynalazcą urządzenia okazał się Ted Selker, który wraz z Josephem Rutledge'em stworzył to dzieło w IBM T.J. Watson Research Center. Nie potrafił mi jednak powiedzieć, kiedy nowa klawiatura pojawi się w sprzedaży. Nie było jeszcze wówczas planów produkcji, dopiero sprawdzano reakcję użytkowników na nowy wynalazek. Zdecydowano się na nazwę Trackpoint II, ponieważ od pewnego czasu firma IBM sprzedawała pod nazwą trackpoint produkt łączący w sobie cechy myszki i urządzenia trackball. Nie ma żadnego związku pomiędzy oryginalnym urządzeniem trackpoint, którego produkcji już zaniechano, a Trackpoint II integrated service. Obecnie dostępna jest już ulepszona wersja urządzenia, Trackpoint III. Aby uprościć terminologię, będę stosował określenie trackpoint w odniesieniu do urządzeń Trackpoint II, Trackpoint III i ich następców. W ostatecznej wersji trackpoint składa się z małej czerwonej gałki z gumy silikonowej, umieszczonej pomiędzy klawiszami G, H i B, oraz dwóch przycisków pod klawiszem spacji, emulujących prawy i lewy przycisk myszy. Przyciski te znajdują się w zasięgu kciuka, nie ma więc potrzeby odrywania ręki od klawiatury. Badania prowadzone przez Selkera w firmie IBM wykazały, że oderwanie ręki od klawiatury, sięgnięcie po mysz i położenie ręki z powrotem na klawiaturze trwa przeciętnie 1,75 sekundy. Przy szybkości pisania rzędu 60 słów na minutę, oznacza to utratę dwóch słów w ciągu minuty, do tego dochodzi czas tracony na powrót do przerwanego wątku myślowego. Prawie cały ten czas można zaoszczędzić, jeżeli korzysta się z urządzenia trackpoint, zarówno do przesuwania kursora, jak również do operacji takich jak pojedyncze i podwójne kliknięcie. Skoordynowanie obsługi przycisków i gumowej gałki umożliwia również łatwe wykonywanie operacji drąg and drop. Przeprowadzone badania dowiodły także, że osoby używające urządzenia trackpoint zamiast myszy mogą o 20 procent zwiększyć swoją wydajność, zwłaszcza w przypadku aplikacji łączących pisanie z dużą ilością ruchów myszą, takich jak edytory tekstu, arkusze kalkulacyjne i inne typowe aplikacje biurowe. W ramach testu urządzenia Trackpoint 111 firma EBM udostępniła pewną ilość egzemplarzy tego urządzenia użytkownikom komputerów typu desktop, wyposażonych również w mysz.
Po dwóch tygodniach 80 procent użytkowników odłączyło myszy od komputerów i zaczęło używać wyłącznie urządzenia trackpoint. Selker uważa (podobnie jak ja), że trackpoint jest najlepszym z istniejących tego rodzaju rozwiązań, zarówno dla komputerów laptop, jak i desktop. Trackpoint nie wyklucza podłączenia do komputera myszy jako alternatywnego urządzenia. Wówczas jednak jeden kursor na ekranie mógłby być przesuwany zarówno przez trackpoint, jak i przez mysz. Dzięki temu dwie osoby mogłyby jednocześnie przesuwać kursor na ekranie. W takiej sytuacji pierwszeństwo ma jedno urządzenie i ono sprawuje kontrolę nad kursorem myszy do czasu, aż skończy działanie. Drugie urządzenie jest automatycznie odblokowywane, gdy pierwsze urządzenie staje się nieruchome W ten sposób dwie osoby jednocześnie mogą korzystać z obydwu urządzeń, bez ryzyka wystąpienia interferencji. Wielu producentów komputerów typu laptop i notebook, np. Toshiba czy TI, doceniło niezwykłe zalety urządzenia trackpoint i wykupiło na nie licencję od IBM. Urządzenie to jest często sprzedawane pod nazwą inną niż trackpoint, chociaż technologia i zasada działania są takie same. Przeprowadziłem porównawczy test różnych urządzeń (takich jak trackball) sterujących kursorem w komputerach typu notebook, jednak żadne nie dorównuje urządzeniu trackpoint pod względem precyzji, łatwości sterowania, a przede wszystkim wygody (trackpoint nie wymaga odrywania ręki od klawiatury). Niestety, wielu producentów tanich komputerów portable zamiast wykupić od IBM licencję na trackpoint, podjęło próby skopiowania urządzenia z użyciem części i oprogramowania pośledniej jakości. Efektem tego są niskie parametry tych urządzeń, odbiegające znacznie od oryginału. Ich czas reakcji jest zazwyczaj zbyt długi, mają dużą bezwładność, brak im „czucia" i dokładności charakterystycznych dla produktu IBM. Jedynym sposobem stwierdzenia, czy urządzenie typu trackpoint jest licencjonowanym urządzeniem IBM i wykorzystuje technologię IBM, jest sprawdzenie, czy pasują do niego gumowe kapturki pochodzące z oryginalnych urządzeń trackpoint. Kapturki te mają kwadratowy otwór i powinny pasować do każdego licencjonowanego modelu trackpoint, np. firmy Toshiba. Firma IBM zmodyfikowała niedawno swoje urządzenie, które nosi teraz nazwę Trackpoint III. Jedną z różnic pomiędzy tą a poprzednią wersją urządzenia, widoczną na pierwszy rzut oka, jest nowy kapturek. Kapturki IBM były zawsze w kolorze czerwonym, a kapturki innych firm w innych kolorach (Toshiba miała zielone i szare), jednak to nie kolor jest ważny. Zasadnicza różnica tkwi w składzie surowcowym gumy. Kapturki urządzeń IBM Trackpoint II i Toshiba Auccupoint są wykonane z gumy silikonowej, która jest dość przyczepna i sprawdza się w większości sytuacji. Jednak jeżeli użytkownik ma tłuste palce, to powierzchnia gumy może się zatłuścić. Problem rozwiązuje umycie kapturka (i dłoni użytkownika), lecz po pewnym czasie staje się to dość irytujące. Nowe kapturki Trackpoint III są wykonane z gumy, którą Selker nazywa „plastykowym papierem ściernym". Ich powierzchnia jest o wiele bardziej przyczepna i nie wymaga czyszczenia, może tylko z przyczyn kosmetycznych. Używałem obydwu rodzajów kapturków i mogę z czystym sumieniem powiedzieć, że kapturek Trackpoint III jest nie do pobicia!
Wymiana gumowego kapturka na nowy jest prosta - należy chwycić go palcami i pociągnąć do góry, kapturek powinien natychmiast wyskoczyć. W jego miejscu można umieścić nowy kapturek IBM Trackpoint III i przekonać się, że pod względem łatwości sterowania rzeczywiście jest on lepszy od kapturków innych producentów. Kolejna różnica między urządzeniami Trackpoint II i Trackpoint III tkwi w ich oprogramowaniu. W nowszym rozwiązaniu IBM zaimplementował inteligentną technikę, którą Selker nazwał „odwrotnym bezwładem" (ang. negative inertia). Oprogramowanie nie tylko kontroluje wychylenie urządzenia w danym kierunku, lecz także przyłożoną siłę palca. Zdaniem Selkera, nowe oprogramowanie oraz nowy rodzaj powierzchni gumowego kapturka zwiększają szybkość operacji związanych z poruszaniem kursorem o około 8 procent. Trackpoint idealnie się sprawdza w komputerach przenośnych, w których wisząca gdzieś z boku mysz albo trackball może niejednego użytkownika wyprowadzić z równowagi. Również trackball wbudowany w komputer nie jest łatwy w użyciu, gdyż wymaga zazwyczaj oderwania ręki od bazowego rzędu klawiszy. Urządzenia te mają także to do siebie, że powierzchnia kulki szybko staje się klejąca, ponadto kulka zbiera brud, który osadzając się na wewnętrznym wałku zmniejsza jego ruchomość. Jest to szczególnie denerwujące w mniejszych urządzeniach. Wiele nowych notebooków ma wbudowane urządzenie typu touchpad - powierzchnię reagującą na dotyk, ruch palca po powierzchni powoduje przemieszczanie się kursora po ekranie. Na pierwszy rzut oka touchpad może się wydawać dobrym pomysłem, wypada jednak blado w porównaniu z trackpointem. Touchpad działa na zasadzie tzw. efektu pojemnościowego i może powodować nieregularne ruchy kursora, jeżeli skóra palców jest zbyt sucha albo zbyt wilgotna. Największą wadą jest umieszczenie go na dole klawiatury, pod klawiszem spacji, co oznacza konieczność odrywania ręki od bazowego rzędu klawiszy, gdy steruje się kursorem za pomocą palca wskazującego. Można też sterować kursorem za pomocą kciuka, jednak palec ten niezbyt dobrze się do tego nadaje, gdyż jest za szeroki. Podsumowując, każda osoba pisząca bez odrywania rąk od klawiatury powinna rozważyć kupno tylko takiego notebooka, który ma wbudowany trackpoint firmy IBM albo urządzenie licencjonowane (np. firmy Toshiba). Trackpoint jest znacznie lepszy od innych urządzeń sterujących ruchem kursora na ekranie: jest szybszy (nie wymaga odrywania rąk od klawiatury), prostszy w użyciu (zwłaszcza dla osób, które piszą bez patrzenia na klawiaturę) i znacznie bardziej precyzyjny. Zalety trackpointa nie ograniczają się tylko do komputerów przenośnych. Korzystając dość często z notebooka, stwierdziłem, że trackpoint jest bardzo prosty w użyciu i szybki, więc zapragnąłem go mieć także na komputerze biurkowym. Do komputera desktop mam podłączoną klawiaturę firmy Lexmark z wbudowanym trackpointem IBM. Łatwiej teraz „przesiadać się" pomiędzy komputerem desktop i notebook, ponieważ w obydwu środowiskach korzystam z takiego samego urządzenia kierującego kursorem. Jedynym problemem, mogącym się pojawić w niektórych starszych komputerach, jest to, że trackpoint wbudowany w klawiaturę współpracuje poprawnie tylko z tymi komputerami, które mają gniazdo myszy na płycie głównej albo współpracują z myszą PS/2, gdyż nie istnieje wersja szeregowa urządzenia. Numery katalogowe klawiatur IBM z wbudowanym trackpointem zamieściłem we wcześniejszej części rozdziału, pt. „Wymiana klawiatury". Klawiatury z trackpointem można też kupić bezpośrednio w firmie Lexmark. Trackpoint jest prawdopodobnie najbardziej nowatorskim urządzeniem sterującym kur-sorem od czasu wynalezienia myszy. W miarę jak IBM udostępnia licencję kolejnym producentom, trackpoint coraz częściej pojawia się w nowych komputerach. Dostępna jest już klawiatura z wbudowanym urządzeniem, która współpracuje z istniejącymi już komputerami. Część producentów (np. Toshiba) wykorzystuje trackpoint we własnych komputerach
Glidepoint W odpowiedzi na opracowanie przez IBM trackpointa, inni producenci komputerów również wdrożyli w swoich produktach nową technikę przesuwania kursora po ekranie. Np. firma Alps opracowała urządzenie typu touchpad o nazwie glidepoint. Urządzenie składa się z kwadratowej płytki, która wykorzystując pojemność elektryczną ciała ludzkiego śledzi pozycję poruszającego się po niej palca. Rozwiązanie to przypomina pojemnościowy przycisk spotykany niekiedy w windach. Inaczej niż trackpoint, który został umieszczony pomiędzy klawiszami, glidepoint znajduje się pod klawiszem spacji i jest obsługiwany za pomocą palca wskazującego albo kciuka. Czujniki znajdujące się pod spodem płytki zamieniają ruchy palca na ruchy kursora. Kilku producentów komputerów przenośnych wykupiło licencję na glidepoint od firmy Alps i stosuje ją w swoich komputerach. Jedną z pierwszych firm, która wykorzystała glidepoint, była firma Apple. Chociaż mogłoby się wydawać, że technologia glidepoint zyska szerokie uznanie użyt-kowników, okazało się, że ma ona również szereg wad. Reakcja urządzenia na ruch palca może być nieregularna, zależy też od rezystancji i wilgotności skóry. Największą wadą jest jednak to, że aby obsługiwać touchpad, użytkownik musi przesunąć rękę znad głównego rzędu klawiszy, co drastycznie spowalnia pisanie. W dodatku sterowanie kursorem może być nieprecyzyjne, ponieważ zależy bezpośrednio od precyzji palca wskazującego lub kciuka. Z drugiej jednak strony, dla osób, które przy pisaniu patrzą na klawiaturę, urządzenie typu touchpad może być prostsze w użyciu niż trackpoint. Pomimo swoich wad, touch-pad jest owiele lepszym rozwiązaniem dla komputerów przenośnych niż trackball albo nieporęczna mysz zewnętrzna.
Adapter portu gier Nazwą joystick adapter określa się specjalną kartę umożliwiającą podłączenie do komputera do czterech urządzeń paddle (potencjometry) albo do dwóch joysticków. Termin paddle (wiosło) oznacza gałkę, której obracanie powoduje przesuwanie się obiektu graficznego po ekranie, a jej nazwa pochodzi z pierwszej popularnej gry video o nazwie Pong, w której za pomocą gałek sterowało się ruchem wioseł. Port gier może wchodzić w skład przeznaczonej do tego celu karty ISA lub MCA, może też być jednym z portów karty wielofunkcyjnej (ang. multifunction card). Gniazdko na karcie jest 15-końcówkowym żeńskim gniazdkiem typu D (zob. rysunek 9.15). Rysunek 9.15. Typowa karta gamę adapter z 15-końcówkowym gniazdkiem
Do portu gier można dołączyć do czterech przycisków i do czterech potencjometrów (oporników o nastawnej rezystancji). Każdy joystick zwykle ma dwa przyciski i centralny drążek, który zmienia rezystancję dwóch potencjometrów. Jeden z potencjometrów odpowiada za wychylenie drążka w poziomie (wzdłuż współrzędnej x), a drugi za wychylenie w pionie (wzdłuż współrzędnej y). Rezystancja potencjometrów zmienia się w zakresie od O do 100 k£l Układ elektroniczny na karcie zamienia wartość rezystancji na impulsy cyfrowe o czasie trwania proporcjonalnym do rezystancji. Odpowiednie oprogramowanie w komputerze mierzy czas trwania impulsów i na tej podstawie ustala względną wartość rezystancji. Port gier nie zajmuje wielu zasobów komputera. Karta nie wykorzystuje żadnej z linii IRQ, DMA ani nie zajmuje pamięci -wykorzystuje tylko jeden adres 201h w przestrzeni adresowej wejścia/wyjścia. Współpraca mikroprocesora z kartą odbywa się poprzez zapis i odczyt portu 210h. Należy zauważyć, że zmiana rezystancji joysticka jest odczytywana przez mikroprocesor za pomocą przeglądania zawartości portu (ang. polling), a nie za pomocą przerwania. Oznacza to, że program w komputerze musi ciągle sprawdzać stan urządzenia poprzez zapis i odczyt portu, zamiast sprawdzać jego stan tylko po otrzymaniu przerwania, tak jak w przypadku innych urządzeń (np. podłączonych do portu szeregowego). Tabela 9.13 przedstawia oznaczenia poszczególnych końcówek portu gier w komputerach PC i kompatybilnych Tabela 9.13. Końcówki gniazdka karty gier w komputerach PC i kompatybilnych Rodzaj sygnału Wyjściow
Końcówka
Sygnał
Funkcja
1
+5 V
Zasilanie potencjometru 5 i joysticka A
2 3 4
Przycisk Przycisk potencjometru 1 , przycisk #1 Wejściow Pozycja Pozycja potencjometru 1, współrzędna x Wejściow Masa -
5 6 7 8 9 10 11 12 13 14
Masa Pozycja Przycisk +5 V +5 V Przycisk Pozycja Masa Pozycja Przycisk 7 +5 V
15
Pozycja potencjometru 2, współrzędna y Wejściow Przycisk potencjometru 2, przycisk #2 Wejściow Zasilanie potencjometru 2 Wyjściow Zasilanie potencjometru 3 i joysticka B Wyjściow Przycisk potencjometru 3, przycisk #1 Wejściow Pozycja potencjometru 3, współrzędna x Wejściow Pozycja potencjometru 4, współrzędna y Wejściow Przycisk potencjometru 4, przycisk #2 Wejściow joysticka B y Zasilanie potencjometru 2 Wyjściow y
Ponieważ wielkością, którą w rzeczywistości odczytuje port gier, jest rezystancja, a także dzięki temu, że karta ta może być w prosty sposób kontrolowana za pomocą standardowych języków programowania, port gier może pełnić funkcję prymitywnego interfejsu wejściowego pracującego w czasie rzeczywistym. Za pomocą takiej karty można podłączyć do komputera PC do czterech czujników analogowych i do czterech przycisków dwustanowych, a następnie za pomocą odpowiedniego oprogramowania odczytywać z nich dane. Różni producenci oferują różne rodzaje kart typu gamę adapter współpracujących z magistralami ISA i MCA. Lista firm, w których ofercie mogą się znajdować tego rodzaju karty, powinna być dostępna u sprzedawcy. Kart tych najlepiej szukać w katalogach dużych firm zajmujących się sprzedażą wysyłkową lub w katalogach producentów urządzeń peryferyjnych. Niektóre firmy oferują urządzenia, które z wyglądu mają niewiele wspólnego z tradycyjnym joystickiem. Najbardziej znane z nich to zestawy zawierające kierownicę samochodową i pedał gazu, sprzedawane z grami samochodowymi i symulatorami lotu. Jeżeli chodzi 0 współpracę z komputerem, to urządzenia te są w rzeczywistości tym samym co joystick czy manipulatory. Zamiast gałek potencjometrów znajdują się w nich kierownice i pedały, które wpływają na zmianę rezystancji różnych elementów układu. Na rynku można spotkać wiele tego typu urządzeń, przeznaczonych do współpracy z grami samochodowymi 1 symulatorami lotu. Dzięki nim gry stają się znacznie bardziej realistyczne. Ponieważ do portu gier mogą być podłączone różnego rodzaju urządzenia z potencjometrami, na leży się upewnić, że oprogramowanie obsługuje prawidłowo konkretne urządzenie. Dzięki zastosowaniu techniki USB, stała się możliwa także komunikacja komputera w stronę joysticka. Dało to możliwość wyprodukowania joysticków, które stawiają opór, lub nawet takich, które siłują się z ich użytkownikiem (ang. force feedbeck). Gracz czuje ręką wszystkie niedogodności drogi, po której jedzie, albo siłę bocznego wiatru, wcielając się w rolę pilota za pomocą symulatora lotu.
Rozdział 10.
Monitory i karty graficzne Monitory są pewnego rodzaju połączeniem między użytkownikiem a komputerem. Można nie mieć drukarki, dysku czy kart rozszerzeń, ale nie można się obyć bez monitora. Bez niego nie widać rezultatów obliczeń lub źle wpisanego słowa. Pierwsze mikrokomputery były małymi pudełkami pozbawionymi ekranu. Informacja o zawartości rejestrów systemowych była wyświetlana za pomocą migających diod, a cała komunikacja z komputerem odbywała się za pośrednictwem specjalnej drukarki. Po dodaniu terminala CRT (CRT - z ang. cathode ray tubę - lampa kineskopowa) lub monitora, komputer stał się bardziej atrakcyjnym urządzeniem dla większej grupy użytkowników. Ten trend rozwoju technologii wykorzystujących obraz do komunikacji z użytkownikiem utrzymaj się do dzisiaj, co objawia się wypieraniem z użycia systemów znakowych (DOS) przez graficzne interfejsy (np. Windows). Do sprzętu graficznego zaliczamy: monitory, karty graficzne W rozdziale tym omówimy karty graficzne i współpracujące z nimi monitory.
Monitory Jak każde urządzenie, monitor potrzebuje sygnału wejściowego. Sygnał ten dostarczany jest z układu grafiki umieszczonego w komputerze. Niektóre komputery - wykorzystujące płyty główne typu LPX lub NLX - zwykle mają te układy umieszczone na płycie głównej. Jednak większość systemów opartych na płytach Baby-AT i ATX posiada osobne układy grafiki, które umieszcza się w gniazdach rozszerzeń. Elementy te noszą nazwę kart graficznych. Niezależnie od tego, czy układy graficzne znajdują się na osobnej karcie, czy bezpośrednio na płycie głównej, zbudowane są podobnie, a zasada ich działania jest taka sama. Cyrix Media GX jest procesorem, w który wbudowano kartę grafiki (wraz z innymi układami - jak karta muzyczna oraz kontroler pamięci RAM). Zastosowana w nim technika XpressGRAPHICS eliminuje przerwy wywołane ciągłymi transferami informacji pomiędzy układami grafiki a procesorem. Także ze względu na spójną konstrukcję owego procesora, jest możliwe zastosowanie wspólnej pamięci RAM dla systemu operacyjnego i układu graficznego. Ilość RAM-u przeznaczana na potrzeby grafiki jest automatycznie dostosowywana w miarę jej używania.
Technologie budowy monitorów Do budowy monitorów wykorzystuje się kilka technologii. Dawniej najbardziej popularne były terminale CRT, zbudowane podobnie jak odbiorniki telewizyjne w oparciu o lampy kineskopowe. Lampa kineskopowa to szklana bańka próżniowa, która z jednej strony ma działo elektronowe, a z drugiej - ekran pokryty warstwą luminoforu. Działo elektronowe wysyła strumień bardzo szybkich elektronów przyciąganych przez drugi koniec lampy. Wiązka ta przechodzi następnie obok elementów sterujących zbieżnością i odchyleniem strumienia elektronów. Kiedy elektrony uderzają w ekran, luminofor świeci. Właśnie to świecenie obserwujesz na monitorze lub ekranie telewizora.
Luminofor ma właściwość zwaną poświatą, która określa, jak długo świecenie pozostaje widoczne. Powinna być zachowana równowaga pomiędzy poświatą a częstotliwością odświeżania, tak aby obraz nie migotał (zbyt krótka poświata) i by na ekranie nie było widać przedłużającej się poświaty. Strumień elektronów porusza się bardzo szybko, przemiatając cały ekran z lewej strony na prawą, liniami z góry do dołu, tworząc pewien wzór zwany rastrem. Częstotliwość wybierania poziomego odnosi się do prędkości, z jaką strumień elektronów przejdzie z lewej strony ekranu na prawą. Podczas przemiatania elektrony uderzają w luminoforową powłokę ekranu tam, gdzie ma być wyświetlony obraz. Natężenie strumienia elektronów zmienia się tak, aby zapewnić odpowiednią jasność obrazu. Ponieważ świecenie ekranu zanika prawie natychmiast, strumień elektronów znowu uderza w luminofor, aby podtrzymać obraz - nazywa się to odświeżaniem ekranu. Większość monitorów cechuje idealna częstotliwość odświeżania (zwana też częstotliwością wybierania pionowego) wynosząca ok. 70 Hz, co oznacza, że obraz jest odświeżany 70 razy na sekundę. Mała częstotliwość odświeżania powoduje migotanie obrazu na ekranie, co bardzo męczy wzrok. Tak więc im wyższa częstotliwość odświeżania, tym lepiej dla oczu. Ważne jest, aby częstotliwości odświeżania monitora odpowiadały częstotliwościom sygnałów wytworzonym przez kartę graficzną. W przeciwnym razie nie uzyskasz obrazu na ekranie, a ponadto możesz zniszczyć monitor. Niektóre monitory maj ą stałą częstotliwość odświeżania, inne mogą pracować przy różnych częstotliwościach, co zapewnia współpracę z nowymi układami grafiki (patrz „Karty graficzne" w dalszej części rozdziału). Monitory takie nazywamy wieloczęstotliwościowymi. Większość współczesnych monitorów działa w ten sposób - jest to różnie oznaczane przez producentów: multisync, multifrequency, multiscan, autosynchronous, autotracking. Rozróżniamy dwa typy ekranów kineskopowych: wypukłe i płaskie. Typowy ekran jest wypukły. Niektóre monitory są zaokrąglone tylko w poziomie, a płaskie w pionie.
LCD Istnieją również inne rozwiązania. Niektóre firmy wytwarzaj ą ekrany ciekłokrystaliczne (LCD - liąuid-crystal display), zapożyczając technologie od producentów laptopów. Są to płaskie ekrany o małej jaskrawości i małym zużyciu energii (5 W w porównaniu ok. 100 W tradycyjnego monitora). Jakość kolorów ekranów ciekłokrystalicznych z aktywną matrycą jest lepsza niż większości zwykłych monitorów, natomiast mają gorszą rozdzielczość i są znacznie droższe (ekran o przekątnej 14 cali może kosztować o 1000$ więcej niż dobrej jakości monitor 17-calowy). Wyróżniamy trzy typy ekranów ciekłokrystalicznych: czarno-biały z pasywną matrycą, kolorowy z pasywną matrycą i kolorowy z aktywną matrycą. Ekrany z pasywną matrycą są dostępne w wersjach: single-scan i dual scan (jednoprzebiegowe i dwuprzebiegowe). W ekranie ciekłokrystalicznym filtr polaryzujący wytwarza dwie oddzielne fale świetlne. W kolorowych ekranach występuje dodatkowy filtr posiadający trzy komórki na każdy piksel - po jednym do wyświetlania kolorów: czerwonego, zielonego i niebieskiego. W ekranach LCD tworzone są dwie oddzielne wiązki spolaryzowanego światła. Światło spolaryzowane przy przejściu przez pierwszy filtr pada na drugi. Poprzez odpowiednie ustawienie kąta polaryzacji drugiego filtra względem pierwszego osiąga się albo częściowe, albo całkowite przesłonięcie. W ekranach kolorowych istnieje osobny filtr zawierający trzy komórki składowe jednego piksela: czerwoną, zieloną i niebieską.
Światło przechodzi przez komórki z ciekłym kryształem, osobno dla każdego koloru. Ciekłe kryształy to cząsteczki w kształcie pręcików poruszające się jak ciecz. Przepuszczają one światło, a ładunek elektryczny zmienia ich położenie oraz polaryzację przechodzącego światła. Czarnobiałe ekrany nie mają filtrów kolorów, ale mogą posiadać kilka komórek na piksel w celu sterowania odcieniami szarości. W ekranach z pasywną matrycą każda komórka jest sterowana przez ładunek elektryczny przesyłany z tranzystorów w zależności od jej położenia na ekranie. Reagując na pulsujący ładunek, komórki odpowiednio skręcają światło - im większy ładunek, tym silniejsze skręcenie i mocniejszy kontrast. Na przykład ekran o rozdzielczości 800x600 posiada 800 tranzystorów na poziomej krawędzi, a 600 na pionowej. Jest ich więc razem 1400. Komórka reaguje na pulsujący ładunek przesyłany z tranzystorów, skręcając polaryzację promieni światła. Im ładunek mocniejszy, tym kąt skręcenia większy. Ładunek w ekranach z pasywną matrycą pulsuje tak, że obraz jest mniej jaskrawy niż w przypadku ekranów z aktywną matrycą, gdzie do każdej komórki dostarczany jest stały ładunek. Aby zwiększyć jaskrawość, część producentów wykorzystuje nową technologię zwaną double scan, w której dzieli się ekran na górną i dolną połowę, zmniejszając czas pomiędzy pulsowaniami. Poza tym, dzięki zwiększeniu jasności, ekrany dual-scan mają krótszy czas odświeżania, co czyni je bardziej użytecznymi w przypadku programów szybko zmieniających obraz na ekranie. W ekranach z aktywnymi matrycami każda komórka jest ładowana z osobnego tranzystora. Zapewnia to jaśniejszy obraz, ponieważ komórka posiada stały ładunek. Ekrany tego typu zużywają jednak więcej energii niż ekrany z pasywną matrycą; wytworzenie takiego ekranu jest trudniejsze i kosztowniejsze ze względu na zastosowanie osobnego tranzystora dla każdej komórki Ze względu na stały rozmiar pojedynczego punktu na ekranie ciekłokrystalicznym, nie jest możliwa zmiana rozdzielczości ekranu. Inaczej jest w przypadku lamp kineskopowych, gdzie tego ograniczenia nie ma. Dlatego ekrany ciekłokrystaliczne są przystosowane do pracy z konkretną rozdzielczością. Jedyną możliwością jest niewykorzystywanie całego ekranu - i w ten sposób zmniejszenie osiąganej rozdzielczości. Zarówno w ekranach z aktywną, jak i pasywną matrycą drugi filtr polaryzujący steruje ilością światła przechodzącego przez komórkę. Komórki skręcają światło tak, aby uzyskać długość fali przepuszczaną przez filtr. Im więcej światła przechodzi przez filtr, tym jaśniejszy jest piksel. Wyświetlacze czarno-białe uzyskują do 64 odcieni szarości przez zmianę jasności komórki lub włączanie i wyłączanie na zmianę podświetlenia komórki. Natomiast wyświetlacze kolorowe wygaszają trójkolorowe komórki sterując ich jasnością w celu uzyskania odpowiedniego koloru na ekranie. Wyświetlacze double scan z pasywną matrycą cieszą się ostatnio dużą popularnością ze względu na jakość obrazu zbliżoną do wyświetlaczy z aktywną matrycą i ceną zbliżoną do ceny zwykłych wyświetlaczy z pasywną matrycą. Dużym problemem w wytwarzaniu wyświetlaczy z aktywną matrycą jest niska wydajność produkcji, która wpływa na wysokie ceny. Wynika to z faktu, iż duża ilość wyprodukowanych wyświetlaczy nie spełnia normy określającej dopuszczalną liczbę niesprawnych tranzystorów, co odbija się na wielkości produkcji i cenach. Dawniej do podświetlania ekranów ciekłokrystalicznych potrzebnych było kilka lamp kineskopowych, ale obecnie producenci przenośnych komputerów wykorzystują pojedynczą lampę wielkości papierosa. Światło emitowane przez lampę jest równomiernie rozprowadzane na całej powierzchni ekranu dzięki zastosowaniu technologii światłowodowej.
Wyświetlacze supertwist i triple-supertwist umożliwiają patrzenie na ekran pod kątem, zapewniają lepsząjasność i kontrast. Aby poprawić czytelność ekranu, szczególnie przy słabym oświetleniu, w niektórych laptopach stosuje się podświetlanie - może być ono emitowane spod spodu wyświetlacza lub wzdłuż krawędzi ekranu dzięki umieszczonym tam małym elementom fluorescencyjnym. Starsze modele nie posiadają podświetlenia ze względu na oszczędność baterii, nowsze natomiast umożliwiają włączenie podświetlenia przy zmniejszonym poborze mocy, co przyciemnia ekran, ale wydłuża czas działania baterii. Najlepsze wyświetlacze kolorowe to te z aktywną matrycą lub TFT (thin-film transistor), w których każdy piksel jest sterowany przez trzy tranzystory (dla koloru czerwonego, zielonego i niebieskiego). Ekrany z aktywną matrycą charakteryzują się krótkim czasem odświeżania, co zmniejsza efekt cienia w porównaniu z ekranami z matrycą pasywną, sterującą pikselami z wykorzystaniem wielu tranzystorów ułożonych wzdłuż brzegów ekranu. Wyświetlacze z aktywną matrycą są jaśniejsze, a ich obraz jest czytelny mimo sporego kąta patrzenia na ekran. Innym rozwiązaniem są ekrany wykorzystujące technologię plazmy gazowej, znane z czarnych i pomarańczowych ekranów w starszych notebookach Toshiby. Niektóre firmy wykorzystują tę technologię do produkcji monitorów i odbiorników telewizyjnych HDTV z płaskimi ekranami.
Monochromatyczny czy kolorowy? Na początku ery komputerów osobistych użytkownicy mieli do wyboru tylko dwa rodzaje monitorów: kolorowy w standardzie CGA i monochromatyczny w standardzie MDA. Obecnie istnieje także wiele innych standardów. Monitory monochromatyczne wyświetlają obraz jednokolorowy, najczęściej bursztynowy, biały lub zielony. Kolor monitora zależy od koloru luminoforu naniesionego na ekran kineskopu. Niektóre monitory monochromatyczne z białym luminoforem zapewniają wiele odcieni szarości. Monitory kolorowe wykorzystują bardziej zaawansowaną technologię, co wpływa na ich cenę. Kineskopy monitorów monochromatycznych zawierają jedno działo elektronowe, natomiast kineskopy kolorowe posiadają trzy działa, osobne dla każdego koloru podstawowego. Na ekrany monitorów kolorowych są naniesione luminofory dla trzech kolorów: niebieskiego, zielonego i czerwonego. Różne kombinacje tych trzech podstawowych kolorów tworzą wszystkie możliwe barwy.
Wielkość monitora Obecnie produkowane są monitory różnych rozmiarów - od 9 do 42 cali - im większy monitor, tym droższy. Najbardziej popularne są 14-, 15-, 17- i 21-calowe. Podawane wymiary przekątnej nie są jednak rzeczywistą wielkością ekranu, ale wymiarem kineskopu. Oznacza to, że porównywanie monitorów 15-calowych dwóch firm może nic nie powiedzieć, chyba że mierzymy przekątną aktywnego obszaru ekranu. Różnią się one nieznacznie w zależności od producenta; i tak 17-calowy monitor może posiadać 15-calowy obraz, a wyprodukowany przez kogoś innego - 15,5-calowy.
W większości przypadków 17-calowy monitor można obecnie uznać za najlepszy zakup, jest najczęściej oferowany i nie jest dużo droższy od monitora 15-calowego. Osobiście również polecam te monitory jako najlepsze do pracy ze współczesnymi programami. Monitory 15-calowe mogą być dalej wykorzystywane do mniej wymagających aplikacji, ale będziemy tracić na rozdzielczości. Monitory 18-, 21-calowe i większe są zalecane w przypadku systemów graficznych. Większe monitory są szczególnie przydatne w malej poligrafii, gdzie istotna jest dobra widoczność nawet małych detali. Na monitorach 17-calowych i większych dobrze widać prawie całą stronę 8 1/2 x l i cali w rzeczywistych rozmiarach - innymi słowy to, co widać na ekranie, odpowiada temu, co się wydrukuje. Cecha ta nosi nazwę WYSIWYG (what you see is what you get - to, co widzisz na ekranie, uzyskasz na wydruku). Jeśli możesz oglądać całą stronę w rzeczywistych rozmiarach, oszczędzasz sobie kłopotu z kilkakrotnym próbnym drukowaniem. Przy rosnącej popularności Internetu, wielkość i rozdzielczość monitora staje się jeszcze bardziej istotna. Wiele stron WWW wykorzystuje rozdzielczość 1024x768, do czego zalecam używanie co najmniej monitora 17-calowego, aby nie dawały o sobie znać problemy z ostrością obrazu. Ciekłokrystaliczne ekrany laptopów mogą uzyskać taką rozdzielczość przy przekątnej 13,3 cala, a nawet 12,1, dzięki dużo mniejszej plamce. Wykorzystując rozdzielczość 1024x768, będziesz mógł wygodnie przeglądać strony WWW bez konieczności przewijania ekranu na boki.
Rozdzielczość monitora Rozdzielczość to wielkość najmniejszego szczegółu, jaki monitor jest w stanie wyświetlić. Wielkość tę wyraża się liczbami punktów (pikseli) w poziomie i w pionie ekranu. Im większa liczba pikseli, tym bardziej szczegółowy jest obraz. Wymagana rozdzielczość zależy od używanego programu. Programy znakowe np. jak DOS-owe edytory tekstu, wymagają małej rozdzielczości, natomiast aplikacje graficzne (mała poligrafia czy programy pracujące pod Windows) potrzebują znacznie wyższej rozdzielczości. Wyróżniamy kilka standardów kart graficznych współpracujących z komputerami osobistymi. Poniższa tabela zawiera ich zestawienie wraz z odpowiadającymi im rozdzielczościami Rozdzielczość 640x480 800x600 1024x768 1280x1024
Nazwa standardu VGA (Video Graphics Array, SVGA (Super VGA) XGA (eXtented Graphics Array) UVGA (Ultra VGA
W monitorach monochromatycznych tym najmniejszym możliwym do wyświetlenia elementem obrazu jest pojedynczy punkt luminoforu, natomiast w monitorach kolorowych punkt (plamka- piksel) obrazu składa się z triady luminoforu. Im mniejsza jest plamka, tym mniejsza odległość między poszczególnymi jej elementami, co daje w efekcie ostrzejszy obraz. I odwrotnie - ekrany z większą plamką posiadają mniej wyraźny obraz. Pierwsze monitory kolorowe produkowane przez IBM posiadały plamkę 0,43 mm, co uważane jest obecnie za bardzo dużą wielkość. Najlepsze monitory mają plamki 0,25 mm i mniejsze; osobiście nie polecam monitorów z plamkami większymi niż 0,28 mm.
Niektórzy, chcąc trochę zaoszczędzić, kupują mniejsze monitory lub monitory o większej plamce, jednak takie rozwiązanie nie jest zazwyczaj opłacalne.
Monitory z przeplotem i bez przeplotu Monitory i karty graficzne mogą pracować z przeplotem lub bez przeplotu. W standardowych monitorach, bez przeplotu, strumień elektronów przemiata ekran kolejno liniami od góry do dołu, wyświetlając cały ekran w jednym przejściu. W trybie z przeplotem strumień elektronów również przemiata ekran liniami od góry do dołu, ale robi to w dwóch przejściach - najpierw linie nieparzyste, potem linie parzyste. W obu trybach cały ekran jest odświeżany w tym samym czasie, jednak w trybie z przeplotem przerysowywana jest co druga linia ekranu, na przemian parzysta i nieparzysta, co powoduje migotanie obrazu. Jeśli zatem zależy ci na wysokiej jakości obrazu, polecam monitor i kartę graficzną obsługujące duże rozdzielczości i pracujące w trybie bez przeplotu Migoczący obraz może zaszkodzić osobom cierpiącym na schorzenia neurologiczne, jak epilepsja. Dlatego powinny one być świadome zagrożeń, które może wywołać praca ze źle dopasowanym monitorem.
Pobór energii i bezpieczeństwo Właściwie wybrany monitor zapewni małe zużycie energii. Wielu producentów komputerów stara się spełnić wymagania Agencji Ochrony Środowiska (EPA - Environmental Protection Agency). Zestaw komputer-monitor zużywa poniżej 60 W (po 30 W na urządzenie) w trybie pracy jałowej (komputer włączony, ale nie używany). Z niektórych badań wynika, że takie „zielone" komputery dają oszczędności rzędu 70 dolarów rocznie.
Oszczędzanie energii Jako że monitor jest jednym z najbardziej prądożernych składników zestawu komputerowego, zakup odpowiedniego modelu może się przyczynić do sporych oszczędności energii. Najlepiej znanym standardem oszczędzania energii w przypadku monitorów jest DPMS (Display PowerManagement Signaling). Określa on sygnały, jakie komputer wysyła do monitora w celu wskazania, że nikt na nim w danym momencie nie pracuje. O tym, kiedy wysłać taki sygnał, decyduje komputer lub karta graficzna. Intel i Microsoft wspólnie opracowały specyfikację APM (Advanced Power Management), definiującą oparty na systemie BIOS interfejs pomiędzy sprzętem posiadającym funkcje zarządzania energią a systemem operacyjnym, który te funkcje wykorzystuje. W praktyce sprowadza się to do możliwości takiego skonfigurowania systemu operacyjnego (np. Windows 9x), aby wygaszał lub nawet wyłączał monitor po upływie określonego czasu, kiedy użytkownik nie korzysta z komputera. Jednak aby było to możliwe, zarówno system operacyjny, BIOS jak i monitor muszą być zgodne ze standardem APM. W przypadku monitorów, o przejściu do różnych trybów pracy (poboru mocy) decydują sygnały DPMS. Podstawą standardu DPMS są sygnały synchronizacji obrazu przekazywane do monitora przez kartę graficzną. Zmieniając te sygnały, system operacyjny może wymusić na monitorze zgodnym z DPMS przejście do określonego trybu APM. Możesz tak skonfigurować system, aby po określonym czasie bezczynności przełączał monitor do trybu wygaszenia i uśpienia, a następnie ponownie włączał do normalnej pracy po zaistnieniu jakiegoś zdarzenia, na przykład ruchu myszą, sygnału z modemu itd.
Zdefiniowane w standardzie DPMS stany monitora to: 4 monitor pracuje „normalnie".
Włączony (on). W tym stanie
* Wygaszony (stand-by). Opcjonalny stan pracy, powodujący nieco mniejsze zużycie energii przy najkrótszym czasie powrotu do stanu normalnego. * Uśpiony (suspend). Tryb pracy, w którym monitor zużywa stosunkowo mało energii, jednak czas powrotu do stanu normalnego trwa znacznie dłużej niż w przypadku wygaszenia. * Wylączony (off). W tym stanie monitor pobiera minimalną ilość energii i nie działa. Powrót z tego stanu może wymagać od użytkownika ręcznego włączenia monitora. Tabela 10.1. Tryby DPMS (Display Power Management Signaling SynchroniStan monitora zacja pozioma Włączony Aktywna Wygaszony Uśpiony Wyłączony
Synchroni- Wyświezacja tlanie pionowa Aktywna Aktywne
Nieaktywna Aktywna
Oszczędność Czas powrotu do stanu energii normalnego Bez
Wygaszon Minimalna e Aktywna Nieaktywn Wygaszon Znaczna a e Nieaktywna Nieaktywn Wygaszon Maksymalna a e
— Krótki Dłuższy Zależny od systemu
Emisja promieniowania Inną tendencją w produkcji monitorów jest minimalizowanie wpływu promieniowania elektromagnetycznego na użytkownika. Badania medyczne wykazują, że to promieniowanie może być przyczyną poronień, wad wrodzonych i raka. Wprawdzie ryzyko jest stosunkowo małe, ale nie można go lekceważyć, jeśli spędzasz przed monitorem ponad 8 godzin dziennie. Problem polega na tym, iż bardzo niska częstotliwość promieniowania z zakresów VLF (very Iow frequencies) i ELF (extremaly Iow freąuencies) ma wpływ na nasze ciało. Promieniowanie to występuje pod dwoma postaciami: pola elektrycznego i pola magnetycznego. Badania wykazują, że pole magnetyczne z zakresu ELF jest bardziej szkodliwe od promieniowania z zakresu VLF, gdyż zakłóca naturalną aktywność elektryczną komórek ciała. Monitory nie są jednak jedynymi „winowajcami" - źródłami znacznego promieniowania są także koce elektryczne czy linie wysokiego napięcia Promieniowanie z zakresu ELF i VLF jest formą promieniowania elektromagnetycznego o częstotliwościach niższych od częstotliwości wykorzystywanych przez nadajniki radiowe i telewizyjne Dla tych dwóch zakresów częstotliwości stosuje się szwedzkie normy SWEDAC (nazwa pochodzi od szwedzkiej instytucji tworzącej te normy), które określają dopuszczalne promieniowanie. W wielu krajach Europy instytucje rządowe i firmy kupują tylko monitory o małym promieniowaniu. Stopień promieniowania jest różny dla różnych monitorów. W 1987 roku stworzony został szwedzki rządowy standard MPR I, uważany za najmniej restrykcyjny. Natomiast standard MPR II z roku 1990 jest znacznie ostrzejszy - określono dopuszczalne promieniowanie dla częstotliwości z zakresów VLF i ELF; większość współczesnych monitorów spełnia jego wymagania
Jeszcze bardziej wymagający jest standard TCO z 1992 roku. Jest bardziej ogólny, określa wymagania zarówno odnośnie zużycia energii, jak i dopuszczalnego promieniowania. Monitor o niskim promieniowaniu jest o 20-100 dolarów droższy od zwykłego monitora. Jeśli taki zamierzasz kupić, nie pytaj sprzedawcy o monitor o niskim promieniowaniu, lecz dowiedz się, czy monitor spełnia określone normy promieniowania. Spróbuj kupić model spełniający założenia powyższych standardów. Jeśli nie zdecydujesz się na zakup monitora o niskim promieniowaniu, możesz chronić się w inny sposób. Najważniejsze to pracować w odległości co najmniej 70 cm od monitora. Kiedy odsuniesz się na odległość kilkudziesięciu centymetrów, promieniowanie magnetyczne z zakresu ELF obniży się do poziomu promieniowania jarzeniówek stosowanych do oświetlenia w biurach. Ponieważ promieniowanie jest najsłabsze z przodu monitora, pracuj w odległości co najmniej 90 cm od sąsiednich monitorów i 1,5 m od kserografu, który jest również silnym źródłem promieniowania. Poza promieniowaniem elektromagnetycznym zwracaj również uwagę na jasność monitora. Niektóre ekrany o obniżonej jasności nie tylko ograniczają zmęczenie wzroku, ale także zmniejszają promieniowanie
Kryteria doboru monitora Ponieważ monitor może stanowić połowę ceny całego zestawu komputerowego, rozważymy czynniki, jakie powinieneś uwzględnić przy jego zakupie. Podstawową rzeczą jest wybór monitora, który będzie współpracował z kartą graficzną. Możesz trochę zaoszczędzić kupując monitor pracujący z jedną częstotliwością i odpowiadającą mu kartę graficzną, np. monitor VGA i kartę VGA. Polecam jednak zakup monitora pracującego z wieloma częstotliwościami, nawet z takimi, które nie są jeszcze standardem Monitory o dobrej jakości zachowują swoją wartość sprzedażną dużo dłużej niż reszta podzespołów komputera. Dlatego czasem lepiej jest kupić dobry monitor i pracować na nim przez kilka lat, niż kupować nowy monitor wraz z każdym kolejnym zestawem komputerowym. W przypadku monitora wieloczęstotliwościowego musisz dopasować częstotliwości odchylania poziomego i pionowego do tych, które generuje karta graficzna. Im większy zakres dopuszczalnych częstotliwości, tym droższy, ale i bardziej uniwersalny monitor. Częstotliwość odchylania pionowego decyduje o stabilności obrazu - im wyższa, tym lepiej. Typowa wartość zawiera się w przedziale od 50 do 100 Hz. Częstotliwość odchylania poziomego mieści się w zakresie od 31,5 kHz do 60 kHz i więcej. W celu utrzymania niskiej częstotliwości odchylania poziomego niektóre karty graficzne wykorzystuj ą sygnał z przeplotem, na zmianę wyświetlając co drugą linię całego ekranu. W większości monitorów przeplot powoduje zauważalne migotanie obrazu, chyba że zastosowany luminofor cechuje się dużą poświatą. Z tego powodu, jeżeli tylko możesz, unikaj monitorów z przeplotem. Starsze modele kart i monitorów używały przeplotu jako taniej metody zapewnienia wyższej rozdzielczości. Na przykład karty i monitory XGA produkowane przez IBM pracowały z przeplotem przy częstotliwości odchylania pionowego 43,5 Hz w trybie 1024x768, w przeciwieństwie do 60 Hz w przypadku większości kart i monitorów przy tej rozdzielczości. Z mojego doświadczenia wynika, że minimalną wartością częstotliwości odchylania pionowego jest 60 Hz, lecz nawet wtedy widać migotanie, szczególnie na dużych monitorach, powodujące zmęczenie wzroku.
Dlatego polecam wybór monitora o częstotliwości co najmniej 72 Hz, przy której większość użytkowników nie dostrzeże migotania. Większość współczesnych monitorów pracuje z częstotliwościami powyżej 85 Hz, co praktycznie eliminuje jakiekolwiek widoczne migotanie. Należy jednak zwrócić uwagę, że wyższe częstotliwości odświeżania bardziej obciążają kartę graficzną, ze względu na konieczność wyświetlenia większej liczby obrazów na sekundę. Dlatego polecam monitory o jak najniższej częstotliwości odświeżania, przy której jeszcze nie dostrzegasz efektu migotania. Przy zakupie monitora dla karty VGA upewnij się, że 31,5 kHz zawiera się w zakresie częstotliwości jego pracy - jest to dla tej karty minimum, niezbędne do wyświetlania obrazów o rozdzielczości 640x480. Standard VESA SVGA (800x600) wymaga częstotliwości odchylania pionowego równej co najmniej 72 Hz i częstotliwości odchylania poziomego - 48 kHz. Obraz o rozdzielczości 1024x768 wymaga częstotliwości równych odpowiednio 60 Hz i 58 kHz. Przy wzroście częstotliwości odchylania pionowego do 72 Hz, częstotliwość odchylania poziomego musi wynosić co najmniej 58 kHz. Jeśli chcesz mieć monitor o bardzo wyraźnym obrazie, wybierz produkt o częstotliwości odchylania pionowego co najmniej 75 Hz i częstotliwości odchylania poziomego co najmniej 90 kHz. Większość współczesnych monitorów analogowych pracuje z wieloma częstotliwościami. Ponieważ tysiące firm produkuje wiele rodzajów monitorów, nie ma sensu szczegółowe omawianie każdego modelu. Ogólnie mówiąc, zanim zdecydujesz się na zakup konkretnego monitora, sprawdź, czy jego właściwości techniczne spełniają twoje wymagania. Jeśli nie wiesz, gdzie ich szukać, polecam popularne miesięczniki komputerowe regularnie przedstawiające zestawienia monitorów. Poza tym możesz przejrzeć strony WWW poniższych producentów: IBM Sony NEC Mitsubishi Yiewsonic Każdy z tych producentów tworzy własne standardy monitorów, na podstawie których można oceniać inne monitory. Są to modele nieco droższe, jednak kupując ich produkt, zyskujesz wysoką jakość i pewny serwis. Ekrany tańszych monitorów są wypukłe ze względu na łatwiejszy sposób prowadzenia elektronów w kineskopie. Monitory o płaskich ekranach są trochę droższe i bardziej się podobają większości użytkownikom. Dodatkowo im mniej wypukły jest ekran, tym mniej światła odbija. Przed zakupem monitora większego niż 15-calowy zastanów się nad jego wymiarami. Monitor 15-calowy jest najczęściej głęboki na ok. 45 cm, monitor 20-calowy - ok. 60 cm, zaś monitor 14-calowy - od 40 do 46 cm. Gdyby przeliczyć długość monitora w stosunku do jego szerokości - okazałoby się, że długość jest większa. Sprawdź również wielkość plamki monitora - im jest ona mniejsza, tym bardziej szczegółowe obrazy mogą być wyświetlane. Wielkość plamki waha się w granicach od 0,25 do 0,52 mm. Aby uniknąć ziarnistych obrazów, wybierz monitor o plamce równej najwyżej 0,26 mm, a unikaj modeli z plamkami powyżej 0,28 mm - obrazom wyświetlanym na takich monitorach brakuje wyrazistości. Zastanów się też nad pożądaną rozdzielczością monitora. Zasada jest prosta - im wyższa rozdzielczość, tym większy monitor jest wskazany. I tak przy rozdzielczości 800x600 polecam monitor 15-calowy, przy rozdzielczości 1024x768 taki monitor będzie raczej zbyt mały i pewnie będziesz wolał większy, np. 17-calowy.
Poniżej przedstawiam zestawienie wielkości monitorów VGA i SVGA, jakie polecam, w zależności od pożądanej rozdzielczości Rozdzielczość 640x480 800x600 1024x768 1280x1024
Minimalna wielkość monitora 14-calowy 15-calowy 17-calowy 21-cało wy
Są to wartości zalecane i nie odnoszą się do możliwości technicznych monitorów. Inaczej mówiąc, większość monitorów 15-calowych zapewnia rozdzielczość 1024x768, ale wielkość liter, ikon i wyświetlanych informacji będzie powodować zmęczenie wzroku przy rozdzielczościach wyższych niż 800x600. Oznacza to, że jeżeli zamierzasz spędzać dużo czasu przed monitorem, pracując przy rozdzielczości 1024x768, zdecydowanie polecam monitor 17-calowy. Mniejsze monitory są niewygodne, a poza tym narażasz się na przemęczenie oczu i bóle głowy. Wyjątkami od tej reguły są wyświetlacze lapto-pów i notebooków. Są to zazwyczaj wyświetlacze ciekłokrystaliczne, które z zasady dają wyraźny obraz o doskonałej ostrości. Poza tym wielkość ekranu podawana przez producentów dokładnie odpowiada wielkości wykorzystywanej powierzchni ekranu, w przeciwieństwie do monitorów kineskopowych. Na przykład, na ekranie laptopa o przekątnej 12,1 cala wyświetlany obszar będzie równy także 12,1 cala. Inaczej mówiąc, 12,1 cala to wielkość ekranu wyświetlanego przez Windows lub funkcjonalnego obszaru ekranu, co można porównać do monitora 14-, a nawet 15-calowego. Poza tym obraz na wyświetlaczach ciekłokrystalicznych jest tak wyraźny, że można na nich pracować używając rozdzielczości o wiele większych od oferowanych przez monitory o tej samej przekątnej. Na przykład najwyższej klasy laptop z 13,3-calowym ekranem może wyświetlać obrazy z rozdzielczością 1024x768. I choć rozdzielczość ta jest męcząca na tradycyjnych monitorach 14- i 15-calowych, tu można z nią pracować dzięki czystemu obrazowi wyświetlacza ciekłokrystalicznego Sprawdź, czy monitor, jaki kupujesz, posiada regulatory położenia obrazu (wysokości i szerokości), oprócz standardowych regulatorów jasności i kontrastu. Powinien być również wyposażony w podstawkę umożliwiającą ustawienie monitora pod odpowiednim kątem Większość nowszych monitorów posiada sterowanie cyfrowe zamiast analogowego. Nie chodzi tu o sygnał dostarczany do monitora, lecz o regulatory umieszczone na przednim panelu. Monitory z cyfrową regulacją mają wbudowane menu pozwalające na ustawienie jasności, kontrastu, wielkości i położenia ekranu, ostrości. Menu włącza się za pomocą przycisku, a następnie ustawia się parametry wybierając odpowiednie opcje. Potem zapamiętuje się je w pamięci NYRAM (Non-Volatile RAM). Ustawienia te są przechowywane dzięki bateryjnemu podtrzymywaniu pamięci i mogą być zmieniane. Cyfrowa regulacja daje o wiele większe możliwości ustawienia parametrów obrazu i osobiście szczerze ją polecam. Przy planowaniu zagospodarowania pomieszczenia, w którym będzie się pracowało z komputerem, dobrze jest zwrócić uwagę na odpowiednie oświetlenie. Kineskop oświetlony świetlówką daje w subiektywnym odczuciu inny obraz niż kineskop oświetlony żarówką. Należy pamiętać, że jakiekolwiek źródło światła (nawet okno w słoneczne dni) odbijające się w ekranie monitora po dość krótkim czasie staje się nieznośne.
I pomimo zastosowania specjalnych powierzchni antyrefleksyjnych (zmniejszających odbicie światła od powierzchni) lub filtrów, zmusza nas do rozjaśnienia obrazu - co znów powoduje wzrost emisji wszelkiego promieniowania. Ze względu na to, iż monitor jest ważnym elementem zestawu komputerowego, nie wystarczy znajomość jego danych technicznych. To, że ma plamkę 0,28 mm, wcale nie oznacza, że jest to monitor dla ciebie. Najlepiej przetestować go w salonie lub (w przypadku możliwości zwrotu monitora) w zaciszu własnego biura. Poniżej wypunktowałem kilka zadań, po wykonaniu których będziesz wiedział więcej o interesującym cię monitorze. * W dowolnym programie graficznym narysuj okrąg. Jeśli otrzymasz elipsę zamiast okręgu, oznacza to, że monitor nie nadaje się do zastosowań graficznych. * Napisz kilka słów czcionkami 8 i 10-punktowymi (punkt to 0,35 mm). Jeśli słowa są rozmazane lub jeżeli spod czarnych liter wychodzą kolory, wymień monitor. * Poreguluj jasnością sprawdzając obraz na rogach ekranu. Jeżeli obraz rozmazuje się lub faluje, prawdopodobnie będzie tracił ostrość przy większej jasności. * Spróbuj wyświetlić całkowicie biały obraz i postaraj się odszukać miejsca z odbarwieniami. Ich istnienie z pewnością zniechęci cię do zakupu. * Uruchom Windows, aby sprawdzić ostrość obrazu. Czy ikony w rogach ekranu są tak ostre jak pozostałe? Czy linie w pasku tytułowym są pofalowane? Monitory posiadają zwykle idealną ostrość w środku ekranu, a niewyraźny obraz w rogach wskazuje na słabe wykonanie. Wypukłe linie może również powodować kiepska kara graficzna, tak więc dla pewności sprawdź monitor używając innej karty. W prawidłowo wykonanym monitorze strumienie elektronów padają dokładnie w określone punkty na ekranie; jeśli tak nie jest, monitor posiada złą zbieżność. Najlepiej rozpoznać ten efekt, gdy spod linii wystają kolorowe punkty. Przy dobrej zbieżności i przy założeniu, że nie ma dominującego odcienia luminoforu, kolory są wyraźne i prawdziwe
Karty graficzne Karta graficzna dostarcza sygnał monitorowi. W 1987 roku, wprowadzając system PS/2, IBM opracował nowy standard, który właściwie wyeliminował standardy dotychczasowe. Większość kart graficznych należy do jednego z poniższych standardów: MDA (Monochrome Display Adapter
VGA (Video Graphics Array)
CGA (Color Graphics Adapter
SVGA (Super VGA)
EGA (Enhanced Graphics Adapter)
XGA (eXtended Graphics Array)
Do powyższych standardów są dostosowane prawie wszystkie programy komputerowe. Inne systemy rozwijają się tworząc nowe standardy, np. karty SVGA mogą obsługiwać różne rozdzielczości w zależności od producenta, jednak rozdzielczość 1024x768 stała się standardem wysokiej rozdzielczości. Większość monitorów pracuje w przynajmniej jednym standardzie, umożliwiając pracę z kartami i programami kompatybilnymi z tym standardem.
Przestarzałe karty graficzne Choć wiele systemów uważa się za standardy, nie wszystkie są użyteczne we współczesnym sprzęcie i oprogramowaniu. Na przykład standard CGA nadal obowiązuje, ale nie nadaje się do intensywnych zastosowań graficznych. Windows 3.1 wymaga kart nie gorszych od EGA, a Windows 95 i Windows NT co najmniej VGA. Poniżej omówimy karty uważane dzisiaj za przestarzałe.
Karty i monitory MDA Pierwszym i najprostszym standardem graficznym opracowanym przez IBM był standard MDA wprowadzony w 1981 roku. Można w nim wyświetlać tylko tekst z rozdzielczością 720x350. Ciekawostką jest, że karta MDA zawierała również port drukarki - była pierwszą wielofunkcyjną kartą rozszerzeń. Był to system wyłącznie tekstowy, bez żadnych możliwości graficznych. Monitory MDA w początkowym okresie bardzo dobrze się sprzedawały ze względu na niską cenę, a dodatkowy interfejs równoległy oszczędzał jedno gniazdo rozszerzeń. Monitory MDA znane są z dobrego obrazu i wysokiej rozdzielczości, co czyniło je idealnymi do użytku biurowego, szczególnie tam, gdzie wykorzystywano oparte na DOS-ie edytory tekstu i arkusze kalkulacyjne. Rysunek 10.1 przedstawia 9-pinowe złącze MDA
Standardowe sygnały wyjściowe TTL ziemia 1 Ziemia
2
Nie używane 3 Monitor Nie używane 4 MDA Nie używane 5 ^ +6 Intensywność ^
+ Video
7
^
+ Poziom
8
Karty i monitory CGA Karta ta została opracowana w 1981 roku razem z pierwszymi komputerami IBM PC i przez wiele lat była najpopularniejszą kartą graficzną. Oczywiście nie przystaje do współczesnych standardów. Karta ta ma dwa podstawowe tryby operacji: alfanumeryczny i graficzny (APA - all points addressable, wszystkie punkty adresowalne). Znaki przedstawiane są z rozdzielczością 8x8. W trybie tekstowym może pracować z 16 kolorami, 40 kolumn na 25 linii lub 80 kolumn na 25 linii. W trybie graficznym wyróżniamy dwie rozdzielczości: średnią- 320x200 z czterema kolorami z 16kolorowej palety i wysoką - 640x200, dwukolorową. Rysunek 10.2 przedstawia kartę graficzną CGA. Większość monitorów CGA to monitory z trzema sygnałami kolorów (monitory RGB), a nie ze złożonym sygnałem koloru. W tych ostatnich sygnał koloru musi być dekodowany i rozdzielany, natomiast monitory RGB otrzymują trzy osobne sygnały kolorów: czerwonego, zielonego i niebieskiego; mieszając je w różnych proporcjach uzyskują odpowiednie kolory. Monitory te posiadają wyższą rozdzielczość i znacznie lepiej wyświetlają 80-kolumnowy tekst. Ograniczeniem kart CGA jest migotanie obrazu i śnieżenie. Migotanie widać przy przesuwaniu tekstu w górę lub w dół, a śnieżenie to przesuwające się po ekranie jasne punkty. Większość firm produkujących niegdyś karty CGA od dawna już tego nie robi, gdyż przy cenach kart VGA poniżej 100 dolarów mijałoby się to z celem. Rysunek 10.2. Karta CGA
Standardowe sygnały wyjściowe sienna 1 Ziemia Wyjście Czerwony do monitora Zielony kolorow Niebieski ego CGA Intensywność ^
Zarezerwowany
+ Poziom
2 3 4 5 6 7 8
Karta graficzna CGA
Sygnał wizyjny, ok. 1,5 V Monitor Przewód sygnałowy 1 Uziemienie do obudowy 2
Gniazdo typu jack zespolonego sygnału wizyjnego
Karta graficzna i monitor EGA Standard EGA został wprowadzony przez IBM w 1984 roku - niemal równocześnie z komputerami AT - i obowiązywał aż do wprowadzenia komputerów PS/2 w kwietniu 1987 roku. W jego skład wchodzą: karta graficzna, karty rozszerzające pamięć, moduły pamięci graficznej i monitor kolorowy wysokiej rozdzielczości. Cały zestaw kosztował 1800 dolarów w firmie IBM, ale znacznie mniej u konkurencji. Jedną z zalet systemu EGA jest to, iż z kartą graficzną współpracują wszystkie produkowane wówczas przez IBM monitory, zarówno monochromatyczne, jak i kolorowe. Monitory kolorowe pracują z 16 kolorami i z rozdzielczością 320x200 lub 640x200, a monitory monochromatyczne - z rozdzielczością 640x350 i matrycą znakową 9x14 w trybie tekstowym Rysunek 10.3. Opis pinów karty EGA
Nazwa sygnału
Karta graficzna EGA
Drugi czerwony
2
Pierwszy czerwony
3
Pierwszy zielony
4
Pierwszy niebieski
5
Wyjście Drugi zielony do Intensywność monitora
/6
Drugi niebieski / wideo 7 mono Odświeżenie poziome
8
Odświeżenie pionowe
9
Monitor EGA firmy IBM pracuje z rozdzielczością 640x350 i z 16 kolorami wybieranymi z palety 64 kolorów; pracuje z tablicą znakową 8x14 w porównaniu z matrycą 8x8 w standardzie CGA. Można jednak używać matrycy 8x8, ale wtedy wyświetlane są 43 linie tekstu. Natomiast programowo możliwe jest uzyskanie matrycy 8x32. Możesz powiększyć dostępny na karcie 256-znakowy zestaw do 512 znaków wykorzystując karty rozszerzeń IBM. Można uzyskać 1024 znaki ładując odpowiednie programy. Karta graficzna EGA wykorzystuje do 128 kB pamięci komputera znajdującej się zaraz powyżej granicy 640 kB. Jeśli posiadasz więcej niż 640 kB pamięci, po zainstalowaniu karty EGA stracisz część z niej. Możesz dołożyć dodatkowe 64 kB pamięci do standardowych 64 kB. Zestawy 128 kB pamięci graficznej IBM mogą rozszerzyć pamięć karty nawet do 256 kB. Te ostatnie 128 kB znajduje się na dodatkowej karcie i nie zmniejsza dostępnej ilości pamięci konwencjonalnej. (Ponieważ prawie wszystkie pracujące jeszcze karty EGA posiadają 256 kB pamięci, dodawanie jej na kartach rozszerzeń jest zbyteczne). Standard VGA przewyższa standard EGA pod wieloma względami. EGA ma problemy z emulowaniem wcześniejszych standardów (CGA i MDA) i programy w nich działające muszą być przerabiane, aby mogły działać w standardzie EGA. Tabela 10.4 przedstawia tryby pracy kart EGA.
Tabela 10.4. Dane techniczne standardu EGA
Ilość Rozdzi kolo- Tryb elczość rów pracy
Matryc a Wielkoś znako BIOS ć ekranu wa
Częstotli wość odchylan ia
Częstotliwość odchylani a
320x35 16
Tekstowy 00/01 40x25
8x14
60
21.85
640x35 720>=3 320^20 640x20 640x35 640x35 0
Tekstowy Tekstowy Graficzny Graficzny Graficzny Graficzny
8x14 9x14 8x8 8x8 8x14 8x14
60 50 60 60 50 60
21.85 18.432 15.75 15.75 18.432 21.85
16 4 16 16 4 16
02/03 07h ODh OEh OFh lOh
80x25 80x25 40x25 80x25 80x25 80x25
Professional Graphics Display System (PGA) Jest to standard graficzny IBM wprowadzony w 1984 roku, który nie cieszył się popularnością ze względu na wysoką cenę. Jako pierwszy posiadał karty graficzne zbudowane na procesorze był to procesor 8088. System składał się z monitora (Professional Graphics Monitor) i zestawu kart graficznych (Professional Graphics Card Set); przy pełnej rozbudowie zestaw kart zajmował trzy gniazda rozszerzeń. Był drogi, ale posiadał imponujące możliwości, jak np. wbudowaną sprzętowo funkcję trójwymiarowego obrotu obrazu i wycinania części obrazu, karta graficzna mogła wyświetlić animację z szybkością 60 klatek na sekundę dzięki dedykowanemu mikroprocesorowi. Standard ten przeznaczony był do programów technicznych i naukowych, a nie do aplikacji biurowych. Został wycofany wraz z wejściem komputera PS/2 i zastąpiony przez VGA i inne standardy o wysokiej rozdzielczości Tabela 10.5. Dane techniczne standardu PGA Ilość Rozdzie kolo- Tryb lczość rów pracy 320x20 0 640x20 0 320*20 0 640x20 0 640^48 0
Matryc a Wielkoś znakow BIOS ć ekranu a
Częstotli wość odchylan ia
Częstotliwość odchylania poziomego
15
Tekstowy 00/0 1 40x25
8x8
60
15.75
15
Tekstowy 02/03 80x25
8x8
60
15.75
1
Graficzny 04/05 40x25
8x8
60
15.75
i
Graficzny 06
80x25
8x8
60
15.75
256
Graficzny -
-
-
60
30.48
Standard 8514/A Standard 8514/A został wprowadzony w 1987 roku razem z komputerami PS/2, oferował wyższą rozdzielczość i większą liczbą kolorów niż VGA. Karta graficzna umieszczana w gniazdach Micro Channel została zaprojektowana do współpracy z monitorem PS/2 8514. Zachowano możliwość współpracy ze standardem VGA oraz umożliwiono rozszerzenie pamięci, zwiększające liczbę dostępnych kolorów i odcieni szarości. Aby w pełni wykorzystać zalety tej karty, zalecane jest użycie monitora tego samego standardu. Standard 8514/A został zastąpiony przez XGA
Standard MCGA (MultiColor Graphics Array) Karty graficzne MCGA są zintegrowane z płytą główną w komputerach PS/2, modelach 25 i 30, współpracuj ą też z analogowymi monitorami IBM standardu CGA (posiada dodatkowe cztery tryby pracy), ale już nie z wcześniejszymi monitorami. Standard MCGA umożliwia pracę na monitorach monochromatycznych z 64 odcieniami szarości. Tabela 10.7 . Dane techniczne standardu MCGA
Ilość Rozdzie kolo- Tryb lczość rów pracy
BIOS
Matryc Wielko a ść znakow ekranu a
Częstotli wość odchylan ia
Częstotliwość odchylania poziomego
320x40 16 0 640x40 16 0 320x20 4 0
Tekstowy 00/01 h 40x25 8x16
70
31,5
Tekstowy 02/03h 80x25 8x16
70
31,5
Grafic/.ny 04/05h 40x25 8x8
70
31.5
640x20 2 0 640x48 > 0 320x20 256 0
Graficzny 06h
80x25 8x8
70
31.5
Graficzny llh
80x30 8x8
60
31.5
Graficzny 13h
40x25 8x8
70
31.5
Standard VGA Równocześnie z wypuszczeniem na rynek pierwszych komputerów PS/2, IBM wprowadził monitory VGA. Faktycznie w tym samym czasie wprowadził również standardy MCGA i 8514/A, które nie cieszyły się taką popularnością jak VGA
Sygnały cyfrowe i analogowe W przeciwieństwie do wcześniejszych cyfrowych systemów, system VG A jest analogowy. Po co wracać od systemów cyfrowych do analogowych, kiedy cała elektronika jest oparta o układy cyfrowe? Gramofony zostały zastąpione przez odtwarzacze płyt CD, nowsze odtwarzacze i kamery wideo posiadają cyfrową pamięć obrazu, co daje możliwość uzyskania dobrej jakości wolnych ruchów i stop-klatek. Cyfrowy telewizor umożliwia oglądanie kilku programów na jednym ekranie oraz podgląd programu podczas oglądania innego. Dlaczego więc IBM zdecydował się na wykorzystanie technologii analogowej? Z powodu koloru. Większość monitorów stworzonych przed komputerem PS/2 to monitory cyfrowe -kolory uzyskuje się w nich stosując trzy strumienie elektronów i wykorzystując dwustanowość sygnałów cyfrowych. Można w ten sposób uzyskać 8 kolorów (2 do 3 potęgi). Dzięki drugiemu sygnałowi (jasności) podwaja się liczbę kolorów z 8 do 16, przy czym każdy kolor jest wyświetlany na dwóch poziomach jasności. Monitory cyfrowe są proste w produkcji i dają takie same kolory niezależnie od użytego monitora. Ograniczeniem systemów cyfrowych jest jednak niewielka ilość możliwych do uzyskania kolorów. IBM zaczął więc wytwarzać monitory analogowe. Działają podobnie jak cyfrowe, używające trzech strumieni elektronów do tworzenia różnych kolorów, lecz każdy kolor w systemie analogowym może być wyświetlany z różną intensywnością. Dla systemu VGA są to 64 poziomy intensywności, co daje 262144 (64') kolorów. W obrazie barwnym kolor jest ważniejszy od rozdzielczości, ponieważ oko odbiera kolorowy obraz jako bardziej realistyczny. Tak więc aby zwiększyć możliwości monitorów w zakresie liczby wyświetlanych kolorów, IBM wykorzystał technologię analogową.
Standard VGA W systemie PS/2 układy sterujące grafiką (VGA) są wbudowane na płycie głównej i składają się z pojedynczego układu VLSI (very large scalę of integrafion), zaprojektowanego i produkowanego przez IBM. Aby dostosować nowy standard graficzny do wcześniejszych systemów, IBM stworzył kartę graficzną PS/2, zwaną również kartą VGA. Karta ta zawiera układ VGA przeniesiony z płyty głównej i umieszczony na karcie rozszerzeń z 8-bitowym interfejsem. VGA BIOS (Basic Input/Output System) to program umieszczony w pamięci ROM komputera, który steruje obwodami VGA. Dzięki niemu oprogramowanie może wydawać komendy i wykonywać funkcje bez potrzeby bezpośredniego odwoływania się do karty VGA; jest to jednak tylko określony zestaw komend wbudowanych w program sterujący. Późniejsze implementacje standardu VGA mogą się różnić sprzętowo, będą jednak korzystać z tych samych wywołań i funkcji BIOS-u, a nowe funkcje będą rozszerzeniem już istniejących. Standard VGA jest więc kompatybilny z graficznymi i tekstowymi funkcjami BIOS-u wbudowanymi w pierwsze komputery wykorzystujące ten standard oraz umożliwia uruchomienie niemal każdego programu stworzonego dla standardów MDA, CGA i EGA.
Teoretycznie byłoby najlepiej, aby programiści pisali programy sterujące BlOS-em, a nie odwołujące się bezpośrednio do sprzętu, a także wspierali wymianę oprogramowania pomiędzy różnymi komputerami, jednak w rzeczywistości pragną uzyskać lepiej działające programy, co pociąga za sobą odwołania sprzętowe. W wyniku tego powstają bardzo wydajne aplikacje zależne od sprzętu, dla którego były pierwotnie tworzone. Aby mieć gwarancję działania programu, programista obchodząc BIOS musi się upewnić, że sprzęt jest w stu procentach kompatybilny ze standardowym. Zapewnienie producenta o kompatybilności rejestrów nie wystarczy, aby oprogramowanie stworzone dla karty IBM VGA pracowało poprawnie w przypadku zamontowania innej karty VGA. Większość producentów stworzyło własne kopie systemu VGA identyczne z oryginałem na poziomie rejestrów, co oznacza, że nawet program zapisujący bezpośrednio w rejestrach wideo będzie działał poprawnie; dotyczy to również współpracy z wcześniejszymi standardami. Właśnie ta wszechstronna kompatybilność uczyniła ten standard tak popularnym. Monitory VGA wyświetlają 256 kolorów z palety 262144 (256 K) kolorów. Ponieważ karta VGA generuje sygnał analogowy, musisz posiadać monitor o wejściu analogowym. Monitory VGA wytwarzane są także w wersji monochromatycznej; wykorzystują sumowanie kolorów (przeprowadzane przez ROM BIOS) do wyświetlania 64 odcieni szarości. Sumowanie jest wykonywane, jeżeli przy starcie komputera BIOS wykryje monitor monochromatyczny. Procedura zamiany kolorów na odcienie szarości dalej wykorzystuje trzy działa kolorowe. Kolor, który miał być wyświetlony, jest przetwarzany poprzez mieszanie trzech kolorów podstawowych, np. 30% czerwonego, 59% zielonego i 11% niebieskiego tak, aby uzyskać pożądany odcień szarości. Użytkownik preferujący monitor monochromatyczny może więc używać programów wykorzystujących kolory. Tabela 10.8. Dane techniczne standardu VGA
Rozdzielczość
Ilość kolo- Tryb rów pracy
Matry Wielko ca ść znako BIOS ekranu wa
Częstotliwość odchylania pionowego (Hz)
Częstotliwość odchylania poziomego (kHz)
360x400 720x400 320x200 640x200 720x400 320x200 640x200 640x350 640x350 640x480 640x480 320x200
16 16 4 i 16 16 16 4 16 2 16 256
00/01 02/03 04/OS 06h 07h ODh OEh OFh lOh llh 12h I3h
70 70 70 70 70 70 70 70 70 60 60 70
31.5 31.5 31.5 31.5 31.5 31.5 31.5 31.5 31.5 31.5 31.5 31.5
Tekstowy Tekstowy Graficzny Graficzny Tekstowy Graficzny Graficzny Graficzny Graficzny Graficzny Graficzny Graficzny
40x25 80x25 40x25 80x25 80x25 40x25 80x25 80x25 80x25 80x30 80x30 40x25
9x16 9x16 8x8 8x8 9x16 8x8 8x8 8x14 8x14 8x16 8x16 8x8
Standardy XGA i XGA-2 IBM wypuścił karty graficzne XGA 30 października 1990 roku, a karty XGA-2 we wrześniu 1992 roku. Każda z nich jest wysokowydajną, 32-bitową kartą dla systemów opartych o architekturę MCA (Micro Channel Architecture). Można powiedzieć, że karta XGA to karta VGA o wyższej rozdzielczości, większej liczbie kolorów, z kopro-cesorem i pracująca w trybie arbitrażu magistrali (bus mastering). Ostatnia cecha wynika z wbudowania procesora uniezależniającego kartę od płyty głównej. Karta XGA została stworzona jako rozwiązanie standardowe dla komputerów Model 90 XP 486 i Model 95 XP 486. Pierwszy posiada kartę XGA wbudowaną w płytę główną, a drugi zawiera osobną kartę graficzną. Karta ta może być instalowana w dowolnym komputerze wykorzystującym architekturę MCA z procesorami 80386, 80386SX, 80386SLC, 80486SLC2, 80486SLC3 i 80486, włączając komputery PS/2 modele 53, 55, 57, 65, 70 i 80. Karta XGA posiada standardowo 512 kB pamięci graficznej z możliwością rozszerzenia do l MB. Oprócz trybów pracy właściwych kartom VGA, karta XGA oferuje kilka dodatkowych. Zostały one przedstawione w tabeli 10.9 Tabela 10.9 Dane techniczne standardu XGA Rozdzielczość Ilość kolorów
Wymagana ilość pamięci VRAM.
1024x768
256
1 MB
1024x768
64
1 MB
1024x768 1024x768 640x480
16 16 odcieni szarości 512kB 512kB 1 MB 65536
640x480
64 odcieni szarości
512 kB
Przyczyna różnego zapotrzebowania na pamięć zostanie wyjaśniona w dalszej części rozdziału. Tryb pracy z 65536 kolorami zapewnia prawie fotograficzną jakość obrazu. 16-bitowy piksel złożony jest z 5 bitów (32 odcienie) koloru czerwonego, 6 bitów (64 odcienie) koloru zielonego i 5 bitów (32 odcienie) koloru niebieskiego. (Oko rozróżnia większą liczbę odcieni zieleni). Głównym ograniczeniem standardu XGA jest stosowanie przeplotu przy wyższych częstotliwościach. Można wtedy wykorzystać tańszy monitor, lecz odświeżanie ekranu następuje wolniej, co daje efekt lekkiego migotania obrazu. XGA-2 to ulepszenie standardu XGA: mamy tutaj zwiększenie liczby kolorów przy rozdzielczości 1024x768 do 64 K, dwukrotne zwiększenie prędkości przetwarzania danych oraz pracę w trybie bez przeplotu. Zarówno XGA, jak i XGA-2 współpracują z trybami pracy VGA i 8514/A. Dla kart 8514/A i rozdzielczości 1024x768 stworzono wiele programów; współpracują one z kartami XGA i XGA-2, a dodatkowo zyskały wiele pod względem prędkości działania. Duża prędkość kart XGA i XGA-2 wynika z użycia pamięci VRAM (video RAM). Inaczej określa się ją jako dwuportową pamięć RAM ze względu na możliwy jednoczesny dostęp do pamięci procesora karty graficznej i procesora płyty głównej, co w efekcie daje niemal natychmiastowy przepływ danych. Pamięć ta jest przypisana systemowej przestrzeni adresowej i wykorzystuje górne adresy z 4-gigabajtowej przestrzeni adresowej. Ponieważ inne karty z reguły nie wykorzystują tego obszaru, konflikty pamięci są rzadkie.
Karta posiada również 8-kilobajtowe rozszerzenie pamięci ROM BIOS wykorzystującej segmenty pomiędzy COOO a DOOO. (W przypadku karty XGA wbudowanej w płytę główną nie ma dodatkowej pamięci ROM ze względu na wykorzystanie BIOS-u płyty głównej). Tabela 10.10 przedstawia tryby pracy kart XGA.
Standard SVGA Kiedy IBM wprowadził na rynek karty graficzne XGA i 8514/A, konkurencyjne firmy zdecydowały się nie poprawiać kart VGA, lecz zaczęły wytwarzać tanie karty o jeszcze wyższej rozdzielczości. Karty te nazwano SVGA. Tabela 10.10. Dane techniczne standardu XC A
Rozdzielczość
Ilość kolo- Tryb rów pracy
Częstotliwoś Wielodchylania kość Matryca pionowego BIOS ekranu znakowa (Hz)
Częstotliwoś odchylania poziomego (kHz)
360x400 720x400 320x200 640x200 720x400 320x200 640x200 640x350 640x350 640x480 640x480 320x200 1056x400 1056x400 1056x400 1056x400 1024x768 640x480 1024x768 1024x768
16 16 4 2 16 16 16 4 16 2 16 256 16 16 16 16 256 65536 256 256
00/01 02/03 04/OS 06h 07h ODh OEh OFh lOh llh 12h 13h 14h 14h 14h 14h 14h 14h 14h 14h
31,5 31,5 31,5 31,5 31,5 31,5 31,5 31,5 31,5 31,5 31,5 31,5 31,5 31,5 31,5 31,5 35,52 31,5 35,52 35,52
Tekstowy Tekstowy Graficzny Graficzny Tekstowy Graficzny Graficzny Graficzny Graficzny Graficzny Graficzny Graficzny Tekstowy Tekstowy Tekstowy Tekstowy Graficzny Graficzny Graficzny Graficzny *
40x25 80x25 40x25 80x25 80x25 40x25 80x25 80x25 80x25 80x30 80x30 40x25 132x2 132x4 132x5 132x6 85x38 80x34 128x5 146x5 1
9x16 9x16 8x8 8x8 9x16 8x8 8x8 8x14 8x14 8x16 8x16 8x8 8x16 8x9 8x8 8x6 12x20 8x14 8x14 7x15
70 70 70 70 70 70 70 70 70 60 60 70 70 70 70 70 43,48 60 43,48 43,48
Karty SVGA przewyższają możliwościami karty VGA. W przeciwieństwie do dotychczas omawianych kart graficznych, określenie SVGA nie odnosi się do kart spełniających pewne wymagania techniczne, ale do grupy kart o różnych możliwościach.
Na przykład jedna karta zapewnia kilka rozdzielczości pracy (powiedzmy 800x600 i 1024x768) wyższych niż standardowa karta VGA, a inna karta pracuje z takimi lub nawet większymi rozdzielczościami, ale dodatkowo daje większą możliwość wyboru kolorów dla danej rozdzielczości. Karty te mają różne możliwości, niemniej obydwie zaliczamy do klasy kart SVGA Karty SVGA wyglądem są bardzo podobne do kart VGA, posiadają takie samo wyjście do monitora i taki sam interfejs (patrz rysunek 10.4). Rysunek 10.4. Karta VGA
Ze względu na znaczne różnice w danych technicznych, pochodzących od producentów kart SVGA, nie ma możliwości przedstawienia ich w tej książce. W poniższej tabeli znajdziesz opis poszczególnych pinów z gniazda wyjściowego dla standardowych kart VGA. i SVGA (rysunek 10.5):
Pin
Sygnał
Kierunek sygnału
11
Monitor IDO
Wejściowy
12
Monitor ID1
Wejściowy
13
Odświeżanie poziome
Wyjściowy
14
Odświeżanie pionowe
Wyjściowy
15
Monitor ID3
Wejściowy
Standardy VESA SVGA W październiku 1980 roku stowarzyszenie VESA (Video Electronics Standard Association), którego członkami są przedstawiciele różnych firm związanych z przemysłem komputerowym, zaproponowało stworzenie jednolitego standardu SVGA. Wynikło to z powodu kłopotliwości tworzenia programów dla wielu różnych kart SVGA. Opracowany standard nosi nazwę VESA BIOS Extension. Jeśli karta graficzna jest zgodna z tym standardem, programy potrafią określić jej możliwości i mogą nią sterować. Korzyścią wynikającą z określenia standardu jest to, że programy pisze się tylko dla jednej karty, jako że różne karty różnych producentów są dostępne dzięki jednolitemu interfejsowi. Początkowo pomysł stworzenia standardu SVGA spotkał się z niewielkim poparciem. Niektórzy główni producenci kart graficznych, którzy zaczęli spełniać wymagania VESA BIOS Extension, dołączali program rezydentny, który należało uruchomić przy starcie komputera. Później inni producenci stworzyli karty z funkcją VESA BIOS Extension wbudowaną w BIOS karty SVGA. Z punktu widzenia użytkownika drugie rozwiązanie jest lepsze, gdyż nie trzeba ładować sterownika czy programu rezydentnego, jeśli chcemy korzystać ze standardu VESA SVGA. Jeżeli chcesz kupić kartę graficzną SVGA, wybierz właśnie taką
Obecnie większość kart SVGA jest zgodnych ze standardem VESA BIOS Extension. Jeżeli chcesz dowiedzieć się więcej o programowaniu kart zgodnych z tym standardem, skontaktuj się ze stowarzyszeniem VESA i poproś o zestaw programisty (Programmer's Toolkif). Standard VESA SVGA obejmuje prawie wszystkie obecnie osiągalne rozdzielczości i głębie kolorów aż do rozdzielczości 1280x1024 z 16777216 (24 bity) kolorami. Nawet jeżeli według producenta karta spełnia wymagania standardu VESA, może nie współpracować z określonym sterownikiem, np. ze sterownikiem dołączonym do Windows dla trybu 800x600, 256 kolorów. W praktyce producenci kart i tak dołączają swoje sterowniki. W tabeli 10.11 znajdziesz tryby pracy typowego układu - akceleratora graficznego Chips and Technologies 65554 SVGA Tabela10.11. Tryby pracy akceleratora graficznego Chips and Technologies 65554 SVGA BIOS
Tryb pracy
Matryca Liczba Częstotliwości odchylania Rozdzielczoć znakowa kolorów
0, 1 2,3 4,5 6 ' D E F 10 11
VGA VGA VGA VGA VGA VGA VGA VGA VGA graficzny
40x25 80x25 320x200 640x200 80x25 320x200 640x200 640x350 640x350 pikseli
9x16 9x16 8x8 8x8 9x16 8x8 8x8 8x14 8x14 kB 8x16
12 13 20
VGA VGA SVGA graficzny
640x480 320x200 640x480 pikseli
8x16 8x8 8x16 kB
22
SVGA
800x600
8x8
24
SVGA
1024x768
8x16
28
SVGA
1280x1024
8x16
30
SVGA
640x480
8x16
16/256 16/256 4/256 kB 2/256 kB Mono 16/256 16/256 mono 16/256 2/256
31,5KHz/70Hz 31,5KHz/70Hz 31,5 KHz / 70 Hz 31,5KHz/70Hz 31,5KHz/70Hz 31,5 KHz/ 70 Hz 31,5KHz/70Hz 31,5KHz/70Hz 31,5KHz/70Hz 31,5KHz/60Hz
16/256 31,5 KHz/ 60 Hz 256/256 31,5 KHz/ 70 Hz 16/256 31,5 KHz/ 60 Hz 37,6 KHz/ 75 Hz 43,2 KHz/ 85 Hz 16/256 37,9 KHz/ 60 Hz 46,9 KHz / 75 Hz 53,7 KHz/ 85 Hz 16/256 35,5 KHz/ 87* 48,5 KHz / 60 Hz 60,0 KHz / 75 Hz 68,8 KHz/ 85 Hz 16/256 35,5 KHz/ 87* 35,5 KHz/ 60 Hz 256/256 31,5 KHz/ 60 Hz 37,6 KHz/ 75 Hz 43,2 KHz/ 85 Hz
Składniki podzespołu graficznego Wszystkie karty graficzne muszą się składać z następujących części: * BIOS * Procesor graficzny * Pamięć dostosowana do potrzeb obróbki obrazu * Konwerter cyfrowo-analogowy (DAC) * Złącze magistrali * Sterownik układu Wiele współczesnych kart graficznych posiada dodatkowe podzespoły, chociażby coraz bardziej popularne akceleratory 3D. Zadaniem następujących podrozdziałów jest przybliżenie czytelnikowi zagadnień związanych z powyższymi podpunktami.
Pamięć BIOS karty graficznej Jej działanie jest zbliżone do zasady działania głównego BIOS-u komputera. Pierwszy tekst, jaki podczas startu komputera ukazuje się na ekranie, to najczęściej logo producenta karty graficznej. Podobnie jak BIOS na płycie głównej, BIOS karty graficznej jest zapisany w pamięci ROM. Procedury w nim zawarte umożliwiają współpracę pomiędzy sprzętem a oprogramowaniem. To właśnie oprogramowanie BIOS-u karty graficznej umożliwia dowolnemu głównemu BlOS-owi komputera wyświetlanie początkowych ekranów. BIOS ten, podobnie jak główny, można uaktualniać. Jednak nie jest to już takie proste. Istnieją dwie metody. Jedna polega na przeprogramowaniu układu EPROM zawierającego ów BIOS za pomocą specjalnego programatora. Drugą jest przeprogramowanie BIOSu zapisanego w pamięci FLASH, polegające na uruchomieniu odpowiedniego programu z dyskietki dostarczonej przez producenta sprzętu. Aktualizacje BIOS-u karty graficznej mogą być konieczne w przypadku gdy chcemy wykorzystać posiadaną kartę w nowym systemie operacyjnym lub gdy producent wykryje poważny błąd w oryginalnym oprogramowaniu. Jako generalną zasadę w przypadku BIOS-u karty graficznej należy przyjąć: „lepsze nie lubi dobrego", to znaczy, że gdy coś dobrze działa, nie należy tego zmieniać. Spróbuj powstrzymać się przed aktualizacją BIOS-u gdy tylko odkryjesz, że pojawiła się.jego nowsza wersja. Przejrzyj dokumentację aktualizacji, i jeśli nie rozwiązuje ona problemów, na jakie napotykasz w przypadku swojej karty, zrezygnuj z niej.
Procesor graficzny Procesor, czasem określany jako chipset, jest sercem każdej karty graficznej. Karty graficzne zbudowane przy użyciu tego samego chipsetu najczęściej niewiele się między sobą różnią. Również wszelkiego rodzaju oprogramowanie pisane dla kart graficznych (jak choćby drivery) zależy przede wszystkim od rodzaju karty, dla której powstaje. Często różnice są na tyle niewielkie, że można używać driverów pisanych dla innej karty graficznej warunkiem jest jedynie zgodność chipsetów. Istnieją trzy główne rodzaje kart graficznych * Frame Buffer (można przetłumaczyć jako bufor klatek) * Koprocesorowe * Akcelerowane
Najstarsza technologia tworzenia kart graficznych to frame-buffer technology, w której karta graficzna jest odpowiedzialna jedynie za wyświetlanie poszczególnych klatek obrazu. Ale wszystkie obliczenia niezbędne do stworzenia ramki przychodzą z procesora komputera, co stanowi dla niego dodatkowe obciążenie. Innym rozwiązaniem jest użycie koprocesora. Karta graficzna ma własny procesor, który wykonuje wszystkie niezbędne obliczenia. Takie rozwiązanie uwalnia główny procesor od obliczeń na potrzeby karty graficznej i zapewnia najszybsze działanie. Stosowane jest także rozwiązanie pośrednie: na karcie graficznej montuje się dodatkowy układ, zwany akceleratorem. Takie karty wykonują większość czasochłonnych operacji (jak rysowanie linii, okręgów i innych obiektów), lecz główny procesor dalej steruje kartą przekazując proste komendy z programów (jak np. polecenie narysowania trójkąta określonych rozmiarów i koloru).
Pamięć graficzna Karta graficzna potrzebuje pamięci do przerysowywania ekranu. Może jej posiadać 256 kB, 512 kB, l MB, 2 MB, 4 MB, 6 MB, 8 MB. Większość kart ma przynajmniej l MB, a zazwyczaj 2-4 MB pamięci. Dodawanie pamięci nie przyśpiesza działania karty, lecz umożliwia pracę z większą rozdzielczością i z większą liczbą kolorów. Do produkcji kań graficznych używa się wielu rodzajów pamięci. Tabela 10.12 przedstawia najważniejsze ich cechy Tabela 10.12. Rodzaje pamięci używanych do produkcji kart graficznych Rodzaj pamięci
Używana magistrala
FPM
Fast-Page
VRAM WRAM EDO SDRAM MDRAM
Video RAM Window RAM Extended Data Out Synchronous DRAM Multibank DRAM
SGRAM
Synchronous Graphics RAM
Częstotliwość Opóźnienie Przepustowość (MHz) (ns) (MB/s)
Modę 25-33
80
80
3
25-33 >50 40-50 66-100 125-166
* * 100 102-75 22-19
100 120 105 166-253 405-490
>125
100-75
200-300
* VRAM oraz WRAM są to pamięci dwuportowe, które potrafią jednocześnie odczytywać i zapisywać dane Ilość pamięci potrzebnej do pracy z określoną rozdzielczością i określoną liczbą kolorów wynika z równania matematycznego. Pamięć potrzebna jest do wyświetlenia pojedynczego punktu na ekranie, a liczba wszystkich punktów określona jest przez rozdzielczość. Na przykład rozdzielczość 1024x768 oznacza, że na ekranie znajdują się 786432 punkty. Aby wyświetlić obraz przy tej rozdzielczości tylko w dwóch kolorach, potrzebny byłby l bit na każdy punkt. Dla wartości bitu równej O, punkt byłby czarny, dla wartości l biały. Wykorzystując 4 bity na punkt, można uzyskać 16 kolorów, co wynika z ilości 4-cyfrowych liczb binarnych (24=16).
Jeśli pomnożysz liczbę punktów przez liczbę bitów reprezentujących dany punkt, otrzymasz ilość pamięci potrzebną do pracy przy danej rozdzielczości. Oto przykład: 1024x768 = 786432 punkty x 4 bity na punkt = 3145728 bitów = 393216 bajtów = 384 kB Jak widać, do wyświetlenia tylko 16 kolorów przy rozdzielczości 1024x768 potrzeba 384 kB pamięci RAM. Ponieważ karty graficzne mogą posiadać tylko dokładnie określoną ilość pamięci (256 kB, 512 kB, l MB, 2 MB, 4 MB), należy zainstalować 512 kB pamięci do pracy z tą rozdzielczością. Kiedy użyjemy 8 bitów do określenia głębi kolorów, uzyskamy 256 możliwych kolorów, co wymaga 786432 bajtów (768 kB) pamięci, należy więc zainstalować l MB pamięci. Do pracy z wyższą rozdzielczością i większą liczbą kolorów, karta SVGA będzie potrzebowała więcej pamięci niż standardowe; 256 kB karty VGA. Tabela 10.13 zawiera wymagania pamięci w zależności od rozdzielczości i głębi koloru. Tabela 10.13. Wymagania pamięci Rozdzielcz Głębia ość koloru
Ilość kolorów
Pamięć karty Wymagana graficznej pamięci
640x480
4 bity
16
256 kB
153 600 bajtów
640x480
8 bitów 256
512 kB
307 200 bajtów
640x480
16 bitów 65536
1MB
6 14 400 bajtów
640x480
24 bity 16777216 I MB
921 600 bajtów
800x600
4 bity
256 kB
240 000 bajtów
800x600
8 bitów 256
512kB
480 000 bajtów
800x600
16 bitów 65536
I MB
960 000 bajtów
800x600
24 bity 16777216 2 MB
1 440 000 bajtów
1024x768
4 bity
512 kB
393 216 bajtów
1024x768
8 bitów 256
1MB
786 432 bajtów
1024x768
16 bitów 65536
2 MB
1 572 864 bajtów
1024x768
24 bity 16777216 4 MB
2 359 296 bajtów
1280x1024 4 bity
16
16
16
ilość
1 MB
655 360 bajtów
1280x1024 8 bitów 256
2 MB
1 310 720 bajtów
1280x1024 16 bitów 65536
4 MB
2621 440 bajtów
1280x1024 24 bity 16777216 4 MB
3 932 160 bajtów
Jak widać w tabeli, karta graficzna z 2 MB pamięci może wyświetlać 65536 kolorów przy rozdzielczości 1024x768, ale aby uzyskać naprawdę realistyczne kolory (16,8 min kolorów), należy rozbudować ją do 4 MB.
Choć niektóre systemy graficzne potrafią pracować w 32-bitowych trybach, nie oznacza to automatycznie, że karty te wyświetlają kolor definiowany przez 32 bity danych. Oznacza to jedynie, że układ karty posługuje się porcjami po 32 bity, które definiują piksel, a wyświetlają kolor używając 24-bitowych danych 24-bitowe (true-color) karty graficzne wyświetlają obrazy w 16,8 milionach kolorów. Jeśli często korzystasz z programów graficznych, warto zainwestować w taką kartę Niektóre karty graficzne wymagają specjalnych rozszerzeń pamięci -nie w postaci chipów, lecz specjalnych modułów, l nawet jeśli na modułach znajdują się standardowe rodzaje pamięci, jedyną możliwością wzbogacenia naszej konfiguracji o nową pamięć jest zakup takiego specjalnego modułu
Szerokość magistrali graficznej Ważnym problemem związanym z pamięcią karty graficznej jest sposób, w jaki do niej sięga procesor graficzny. Procesor ten to układ sterujący prawie wszystkimi funkcjami karty graficznej. Połączony jest on z pamięcią poprzez lokalną magistralę. Większość wysokiej jakości kart graficznych posiada 64-bitową (lub nawet 128-bitową) magistralę - mówimy, że jest to 64-bitowa (lub odpowiednio 128-bitową) karta graficzna.
Rodzaje pamięci stosowanej w kartach grafiki DRAM Dawniej w celu przechowywania obrazów większość kart graficznych używała pamięci dynamicznej RAM (DRAM). Jest to pamięć tania, ale raczej wolna. Wynika to z konieczności jej ciągłego odświeżania oraz z właściwości, że nie może być odczytywana i zapisywana w tym samym czasie. Współczesne karty graficzne wymagaj ą bardzo dużej prędkości przesyłu danych do i z pamięci. Przy rozdzielczości 1024x768 i częstotliwości odświeżania 72 Hz, konwerter cyfrowoanalogowy znajdujący się na karcie odczytuje zawartość bufora pamięci 72 razy na sekundę. W trybie rzeczywistego koloru (24 bity na punkt) oznacza to prędkość odczytu ok. 170 MB/s, co stanowi górną granicę możliwości pamięci DRAM. Ze względu na wymaganą bardzo dużą szerokość pasma, pojawiło się wiele innych technologii usiłujących sprostać obecnym potrzebom EDO Jednym z nowszych rozwiązań jest pamięć EDO (Extended Data Oui) RAM. Pamięć EDO zapewnia szersze efektywne pasmo poprzez przeniesienie zawartości pamięci do osobnych układów, tak że następny dostęp do pamięci jest możliwy przed zakończeniem poprzedniego. Daje to 10-procentowe zwiększenie prędkości działania w porównaniu do pamięci DRAM, przy zachowaniu tej samej ceny. Pamięć EDO RAM została opracowana przez firmę Micron Technologies z myślą o głównej pamięci komputera. Układy EDO RAM tworzy się przy użyciu tej samej matrycy co układy DRAM, różnice pomiędzy nimi powstają na końcowym etapie produkcji. Metoda ta umożliwia korzystanie z tej samej linii produkcyjnej. VRAM Od pewnego czasu w kartach graficznych stosuje się także pamięć VRAM (Video RAM). Pamięć VRAM jest pamięcią dwuportową, co pozwala na jednoczesny dostęp do pamięci ze strony procesora graficznego, układu akceleratora, a także przetwornika cyfrowoanalogowego i głównego procesora komputera. Pamięć ta jest znacznie wydajniejsza niż konwencjonalna DRAM, a nawet EDO, jest jednak znacznie droższa.
WRAM (Window RAM) to pewna modyfikacja dwuportowej pamięci VRAM, stworzona przez firmę Samsung specjalnie dla kart graficznych. Oferuje ona trochę mniejszą wydajność niż pamięć VRAM, ale przy znacznie niższej cenie - dlatego znalazła zastosowanie w wielu wydajnych kartach graficznych. MDRAM (Multibank DRAM) to nowy typ pamięci stworzony przez firmę MoSys Inc., również specjalnie do zastosowań graficznych. Pamięć ta składa się z dużej liczby małych (32 kB) banków pamięci. Tradycyjnie pamięci DRAM i VRAM występują jako monolityczne banki, ograniczając rozmiar pamięci na karcie do kilku wartości. Organizacja pamięci MDRAM pozwala na zainstalowanie jej w dowolnej ilości będącej wielokrotnością 32 kB. Jest to duża zaleta, zwłaszcza przy wysokich cenach pamięci Na przykład przy rozdzielczości 1024x768 i 24-bitowym kolorze potrzeba 2,3 MB pamięci na bufor ramki plus trochę dodatkowej pamięci. Jeżeli wykorzystamy pamięci DRAM 256kBxl6 i 64-bitową magistralę, najmniejszy rozmiar pamięci to 4 MB ułożone w dwóch bankach po cztery kości w każdym. Natomiast korzystając z układów MDRAM, możemy zainstalować 2,5 MB pamięci w postaci dwóch lub trzech modułów. Instalujemy więc o 1,5 MB mniej pamięci, obniżając koszty produkcji. Oprócz dużej swobody w wyborze rozmiaru, pamięć MDRAM posiada wewnętrzne banki pamięci poza centralną magistralą, tak że jest możliwy dostęp do każdego banku osobno. Umożliwia to jednoczesny odczyt lub zapis danych w kilku bankach w jednym cyklu zegara, co znacznie przyśpiesza działanie w porównaniu z pamięciami VRAM i WRAM.
SGRAM Innym wysokowydajnym rozwiązaniem są pamięci SGRAM (Synchronous Graphics RAM). Są to bardzo szybkie pamięci (125 MHz i więcej) do zastosowań na kartach PCI i AGP. Pracują cztery razy szybciej niż pamięci DRAM. Zastosowanie tej pamięci to rozwiązanie najdroższe, ale i najefektywniejsze.
Przetwornik cyfrowo-analogowy (RAM DAĆ) Jest to podzespół systemu graficznego, służący do przetworzenia cyfrowej informacji o barwach, zawartej w bajtach pamięci graficznej, na sygnał analogowy, wysyłany następnie do monitora. Jego prędkość jest mierzona w MHz. W nowoczesnych kartach graficznych układ ten pracuje z prędkościami przekraczającymi 200 MHz.
Magistrala Już wiesz, że dana karta graficzna jest projektowana dla określonej magistrali, na przykład karta VGA dla magistrali MCA, podobnie karty XGA i XGA-2. Od magistrali systemowej (np. ISA, EISA, MCA) zależy szybkość przetwarzania danych. ISA to 16-bitowa magistrala pracująca z szybkością 8,33 MHz, EISA i MCA to magistrale 32-bitowe pracujące z szybkością do 10 MHz. (Nie myl szybkości magistrali z szybkością procesora. Jeśli nawet procesor pracuje z szybkością 300 MHz, magistrala i tak nie przekroczy określonego maksimum). Jednym z osiągnięć w tej dziedzinie jest standard VESA local bus (VL-Bus). Jest on niejako dodatkiem do istniejącego systemu. Na przykład system ISA może posiadać 32-bitowe gniazdo VL-Bus pracujące z pełną szybkością procesora, nawet do 40 MHz. Tak więc przez właściwe zastosowanie magistrali VL-Bus można osiągnąć znaczne prędkości.
W lipcu 1992 roku Intel wprowadził na rynek standard PCI (Peripheral Component Interconneci) łączący procesor z innymi układami. Poprawiony w 1993 roku standard PCI połączył szybkość lokalnej magistrali z niezależnością procesora. Karty graficzne PCI, podobnie jak karty VL-Bus, znacznie przyśpieszaj ą pracę z grafiką; zostały zaprojektowane jako karty PnP (Plug and Play), co oznacza, że są proste w instalacji. Standard ten praktycznie całkowicie wyparł VL-Bus. Osobiście polecam tylko karty PCI, ewentualnie VL-Bus do rozbudowy starszych systemów posiadających odpowiednie gniazda. Stosunkowo nowym rozwiązaniem jest magistrala AGP (Accelerated Graphics Port), opracowana specjalnie na potrzeby szybkich kart graficznych przez firmę Intel. Zapewnia ona maksymalne pasmo przenoszenia cztery razy większe niż w przypadku magistrali PCI. AGP jest w zasadzie rozszerzeniem istniejącej magistrali PCI, zapewniającym bardzo szybki dostęp do pamięci systemowej. Dzięki temu karta może pobierać pewne elementy grafiki 3D, na przykład tekstury, bezpośrednio z pamięci systemowej, bez konieczności wcześniejszego ładowania ich do pamięci karty graficznej. To znów powoduje szybsze działanie aplikacji i uwalnia od konieczności rozbudowy pamięci karty graficznej, gdy chcemy, aby szybciej wykonywała operacje 3D. Choć magistrala AGP została zaprojektowana z myślą o procesorze Pentium II, sarna w sobie nie jest zależna od rodzaju procesora. Wymaga jednak wsparcia ze strony chip-setu płyty głównej, co oznacza, że nie możesz skorzystać z karty AGP bez wymiany płyty głównej. Obecnie złącze karty AGP posiadają płyty główne Pentium II z chipsetem Intel 440LX, 440EX i 440BX. Intel opracowuje również chipset AGP przeznaczony dla płyt z gniazdem Socket 7, tak aby z kart AGP mogły skorzystać także systemy z procesorem innym niż Pentium II. Firma Acer Labolatories Inc. (ALi) także posiada chipset, Alad-din Pro II, obsługujący AGP X2 na płytach głównych Pentium II Slot l, oraz chipset Aladdin V Pentium, obsługujący AGP X2 na płytach głównych Pentium Socket 7. Apollo VP3 i Apollo MVP3 firmy VIA Technologies także obsługują AGP na płytach Socket 7. Również SiS ma swój chipset 5591, obsługujący AGP na płytach głównych Socket 7. Jednak nawet posiadając odpowiedni chipset, bez wsparcia ze strony systemu operacyjnego nie wykorzystasz w pełni możliwości AGP. Mechanizm DIME (DIrect Memory Execute) kart AGP w celu zmniejszenia ruchu pomiędzy systemem a kartą graficzną w pewnych przypadkach korzysta z pamięci systemowej, a nie z pamięci karty. Pozwalają na to systemy Windows 98 i Windows NT 5, ale nie oryginalny system Windows 95. W Patrz „Chipsety" w rozdziale 6. str. 345 Przed zdecydowaniem się na taki zakup dobrze jest zachować rozwagę i zdrowy rozsądek, dotyczy to także technologii AGP. W przypadku wcześniejszych implementacji AGP, które pojawiły się na rynku, zdarzały się pewne problemy. Także obecna specyfikacja AGP 2.0 jest dopiero w stanie opracowywania. Ta nowa specyfikacja zakłada obsługę trybów o dwu- i czterokrotnej prędkości przekazywania danych, jeszcze bardziej zwiększając wydajność magistrali. W każdym razie, gdy AGP nieco dojrzeje, ma duże szansę stać się przemysłowym standardem magistrali kart graficznych. Wiele sprzedawanych obecnie najwydajniejszych kart graficznych jest dostępnych w dwóch wersjach: PCI i AGP. Jeśli twój komputer jest wyposażony w chipset obsługujący AGP, prawdopodobnie będziesz zadowolony wykorzystując jego możliwości. Jak pokazuje tabela 10.14, magistrale VL-Bus, PCI i AGP różnią się znacznie od siebie.
Tabela 10.14. Specyfikacja magistral Opis
VL-Bus
PCI
AGP
Teoretyczna maksymalna przepustowość Ilość gniazd**
132 MB/s
132 MB/s*
533 MB/s
Koszt
Niedroga
Nieco droższa
Zastosowanie
Tańsze komputery 486
Najlepsze 486, PentiumII, Pentium, P6 Pentium -Socket 7
3 4/5 1 (standardowo (standardowo) Obsługa standardu Nie Tak Tak PnP Nieco droższa PCI od
*
64-bitowe przy maksymalnej szybkości magistrali 66 MHz
**
Ilość gniazd zależna od chipsetu płyty głównej.
Driver (sterownik) karty graficznej Jest to niezbędny składnik karty graficznej - i bardzo często sprawiający wielkie problemy. Jest on pomostem łączącym dwa, leżące daleko od siebie, brzegi: procesor karty graficznej oraz chipset płyty głównej. Zły sterownik może zniweczyć cały trud stworzenia wydajnego systemu graficznego. Programy wykorzystujące DOS posiadały najczęściej własne sterowniki grafiki. Inaczej jest w systemie Windows. Tutaj sterownik jest najczęściej jeden i dostarcza go producent urządzenia. Wielu producentów posiada bardzo rozbudowane serwisy Internetowe. Można w nich znaleźć zarówno informacje o nowych produktach, jak i najnowsze wersje driverów, często rozwiązujące różne problemy, z którymi już być może się borykaliśmy.
Karty graficzne do zastosowań multimedialnych Multimedia, jako określenie środków komunikacji komputera - dźwięk, reakcje na głos, coraz doskonalsza grafika - stają się powoli jednym z najważniejszych elementów przemysłu komputerowego. Ich pierwotnie rozrywkowy charakter spowodował, że przyjęły się jedynie w komputerach domowych. A po pewnym czasie przeszły także do zastosowań czysto użytkowych, jak na przykład edycja tekstów w biurach. Rosnący popyt jest zaspokajany przez kolejne nowe produkty. I nie chodzi jedynie o kartę grafiki, która oczywiście jest jednym z filarów dzisiejszych systemów komputerowych. Chodzi również o możliwość współpracy z kamerami wideo, telewizorami i wieloma innymi urządzeniami, które w obecnych czasach może obsługiwać komputer. Najlepszym przykładem wielkiego znaczenia multimediów jest bogaty wybór kart graficznych czy też przygotowywane specjalnie na potrzeby grafiki magistrale (AGP).
VFC (Video Feature Connector) Od czasu stworzenia przez IBM standardu VGA w 1987 roku, jedną z często przeoczanych wówczas ciekawostek była VFC. Jest to 26-pinowe złącze umożliwiające bezpośrednie podłączenie dodatkowej karty graficznej do karty VGA. Opcja ta była słabo udokumentowana przez IBM i nie znalazła wielu zastosowań wśród producentów kart, po prostu nie widziano takiej potrzeby. Było to jednak w okresie, kiedy rnultimedia dopiero raczkowały. Obecnie, kiedy wiele komputerów zawiera karty z wbudowanymi funkcjami fuli motion video (obróbki obrazu wideo w czasie rzeczywistym), tunera telewizyjnego, przechwytywania obrazu, staje się niezbędne wykorzystanie opcji VFC. Istniał również dodatkowy problem wynikający z ograniczeń samego standardu VGA -karta VGA posiadała 8-bitową magistralę i mogła pracować z rozdzielczością najwyżej 640x480. Ograniczało to możliwości przekazywania sygnału bezpośrednio między kartami. W listopadzie 1993 roku problem został rozwiązany przez stowarzyszenie VESA - powstały dwa nowe standardy magistral graficznych VESA Advanced Feature Connector (VAFC) oraz VESA Media Channel (VMC). Standardy te umożliwiły połączenie kart multimedialnych i kart graficznych oraz przyczyniły się do gwałtownego rozwoju nowych programów: prezentacyjnych, do obróbki obrazu, do wideokonferencji. VAFC to tanie rozszerzenie standardu VFC, spotykane na wielu kartach graficznych. Zwiększa ono przepustowość poprzez poszerzenie magistrali z 8 do 16/32 bitów oraz dodanie dodatkowych sygnałów. Umożliwia przesyłanie danych z prędkością 75 MB/s dla magistrali 16-bitowej i 150 MB/s dla magistrali 32-bitowej. Dodatkowo oferuje digitalizację obrazu i asynchroniczne wejście wideo. VAFC znosi ograniczenia karty VGA (256 kolorów i rozdzielczość 640x480). Nowe produkty wykorzystujące przechwytywanie i nakładanie obrazów, kompresję i odtwarzanie przekazują dane pomiędzy kartami wykorzystując interfejs VAFC. Wszystko to sprawia, że oglądanie filmu na monitorze komputera staje się standardem. VMC to stworzona z myślą o multimediach magistrala umożliwiająca jednoczesne przetwarzanie kilku szerokopasmowych sygnałów. Znosi ograniczenia szerokości pasma charakterystyczne dla systemów ISA, EISA, MicroChannel, VL-Bus i PCI. Standard VMC został tak zaprojektowany, aby umożliwić przezroczyste połączenie wideo i grafiki bez włączania w te operacje przerwań procesora i magistrali. Możemy połączyć kilka urządzeń dzięki 68żyłowemu kablowi z wieloma gniazdami. Na przykład można w prosty i tani sposób skonfigurować system posiadający funkcje przechwytywania, dekodowania i kodowania obrazów. Jest to szczególnie istotne przy takich aplikacjach jak telekonferencje, a dodatkowo daje dużą swobodę w konfigurowaniu Każda wysokowydajna karta graficzna posiada albo 80-pinowe złącze VAFC, albo 68pinowe złącze VMC. Jeśli stwierdzisz, że karta posiada tylko złącze 26-pinowe, oznacza to, iż jest wykonana w standardzie VFC - nie polecam tego typu kart. Większość multimedialnych kart graficznych. Ponieważ żaden z wymienionych standardów nie stał się powszechny, producenci sprzętu komputerowego poszli własną drogą. Na przykład dekodery MPEG czy też akceleratory 3D używają standardowego łącza VGA. Niektóre karty graficzne (należące do wspomnianego rodzaju akceleratorów 3D) są do tego stopnia wyspecjalizowane w swoich funkcjach, że wymagają obecności zwykłych kart graficznych - 2D. Jednak nie są z nimi połączone wewnątrz komputera - dużo prostszą i równie skuteczną metodą okazało się ich połączenie zwykłym kablem monitora - który z odpowiedniej strony ma niejedną, ale dwie wtyczki, wchodzące w gniazdo karty graficznej i akceleratora.nych wymaga złączy VAFC w celu uzyskania szybkiego transferu danych
Zewnętrzne urządzenia wideo Technologia wideo była w początkowym okresie oparta na telewizji, a sygnały wykorzystywane przez telewizję i komputer różnią się od siebie W Stanach Zjednoczonych standard telewizyjnego sygnału kolorowego został ustalony przez National Television System Committee (NTSC). Niektóre kraje, jak Japonia, również wybrały ten standard. W Europie stworzono bardziej złożone standardy: Phase Alternate Linę (PAL) i SEąuential Couleur Avec Memoire (SECAM). Tabela 10.15 opisuje różnice między tymi standardami. Karta z wyjściem wideo (VGA-to-NTSC) umożliwia wyświetlenie ekranu komputera w telewizorze lub nagranie go na taśmę. Wyróżniamy dwa typy takich kart: z digitalizacją obrazu (umożliwiają synchronizację obrazu z wielu wejść wideo) i bez niej. Digitalizacja obrazu umożliwia uzyskanie stabilnego obrazu niezbędnego do wykonywania dobrej jakości nagrań na taśmę, nie jest jednak konieczna do zwykłego oglądania wideo. Konwertery VGA-to-NTSC występują w wersjach wewnętrznej (na karcie rozszerzeń) i zewnętrznej (w formie dodatkowego urządzenia). Te ostatnie idealnie nadają się do wykorzystania z laptopami. Nie zastępują karty VGA, lecz łączy się je z nią zewnętrznym kablem. Oprócz wejścia VGA i portów wyjściowych, taka karta posiada wyjście sygnału S-Video i złożonego sygnału wizyjnego. Konwertery VGA-to-TV współpracują również z europejskim sygnałem telewizyjnym PAL, ale rozdzielczość na telewizorze lub na taśmie wideo ograniczona jest do rozdzielczości karty VGA 640x480. Ze względu na charakterystykę sygnału w urządzeniach VGA-to-TV, posiadają one nieraz układy zapobiegające migotaniu w celu zapewnienia stabilnego obrazu.
Karty przechwytujące obraz Ich wykorzystanie - jak w aparacie fotograficznym - polega na przechwyceniu pojedynczych obrazów na ekranie monitora w celu ich późniejszej obróbki i odtwarzania. Niektóre podłącza się do portu równoległego; przechwytują one ekrany ze źródła sygnału NTSC na podobnej zasadzie jak kamery wideo i magnetowidy. Chociaż jakość obrazu jest ograniczona przez sygnał wejściowy, otrzymane wyniki są wystarczająco dobre na potrzeby prezentacji i małej poligrafii. Karty te pracują z 8-, 16- i 24-bitowymi kartami VGA i z reguły akceptują sygnały wejściowe z urządzeń VHS, Super VHS i Hi-8. Jak można się spodziewać, lepsze efekty uzyska się korzystając z urządzeń Super VHS i Hi-8, podobnie używając karty SVGA z 65536 kolorami. Na rynku jest wiele programów przetwarzających grafikę, umożliwiających obróbkę obrazu, konwersję formatu plików, przechwytywanie ekranów i zarządzanie plikami graficznymi.
Systemy wielomonitorowe Windows 98 umożliwia podłączenie kilku monitorów do jednego systemu. Maksymalna ich liczba wynosi dziewięć - tyle też system obsługuje kart graficznych. Każda z nich wyświetla osobny fragment pulpitu. Gdy konfigurujesz Windows 98 do obsługi kilku monitorów, system tworzy tzw. wirtualny pulpit, tj. ekran w pamięci obrazu, który może być większy niż obraz wyświetlany na pojedynczym monitorze. Na dodatkowych monitorach możesz wyświetlić osobne części pulpitu, otwierać na nich okna aplikacji i dowolnie je rozmieszczać. Oczywiście, każdy monitor podłączony do komputera wymaga własnej karty graficznej, więc jeśli nie masz wolnych dziewięciu gniazd, perspektywa podłączenia aż dziewięciu monitorów staje się bardzo odległa. Jednak nawet w przypadku dwóch monitorów efektywność pracy może znacznie wzrosnąć.
W wielomonitorowym systemie Windows 98 zawsze jeden z monitorów jest traktowany jako podstawowy. Podstawową kartą graficzną może być każda karta PCI VGA posiadająca minidriver dla Windows 98, pracująca z liniowym buforem obrazu i w upakowanym formacie (nie planarnym), co oznacza, że nadaje się do tego większość sprzedawanych obecnie kart graficznych. Kartą graficzną współpracującą z każdym dodatkowym monitorem musi być jedna z następujących: * Serii S3-ViRGE * S3Trio-64V+ * S 3 Aurora * Cirrus 5436, 5446, 7548 * ET6000 * ATI Mach 64, Rage I, II * Imagineil28(2) Ważne jest, aby komputer prawidłowo rozpoznał, która z kart graficznych jest kartą podstawową. BIOS systemowy posiada do tego celu specjalną funkcję, a jeśli BIOS w twoim komputerze nie pozwala na wybór podstawowej karty graficznej, to o kolejności decyduje kolejność ułożenia kart w gniazdach PCI. W związku z tym powinieneś umieścić podstawową kartę w gnieździe PCI o najwyższym priorytecie. Gdy już zainstalujesz karty w komputerze, możesz skonfigurować pulpit dla każdego z monitorów przy pomocy aplikacji Ekran w Panelu sterowania. Podstawowy ekran jest zawsze umieszczony w lewym górnym rogu wirtualnego pulpitu, ale możesz przesunąć drugi ekran tak, aby obejmował wybrany obszar pulpitu. Dla każdego monitora możesz także indywidualnie dobrać rozdzielczość i ilość kolorów.
Karty telewizyjne Istnieje możliwość oglądania i edytowania obrazu telewizyjnego na komputerze. Dużą zaletą analogowego sygnału telewizyjnego jest zdolność do przeniesienia złożonej informacji w wąskim paśmie częstotliwości, wadą jest natomiast brak możliwości edycji wyświetlanego obrazu. Przechwytywanie, nagrywanie i zapamiętywanie obrazu telewizyjnego na komputerze wymaga specjalnej karty zwanej video capture board (występuje również pod nazwami video digitizer lub video grabber}. Jednym z najbardziej powszechnych zastosowań analogowego sygnału wideo są komputerowe programy szkoleniowe wysyłające do odtwarzacza dysków laserowych sygnały „start", „stop", „szukaj". Program kontroluje odtwarzacz poprzez interfejs, który poza tym również przetwarza sygnał telewizyjny odtwarzacza na kompatybilny z VGA, aby można go było wyświetlić na monitorze komputera. Takie programy potrzebują sprzętowej konwersji sygnału NTSC na sygnał VGA. Komputer jest w stanie wyświetlić 16 milionów kolorów, natomiast w standardzie NTSC można uzyskać zaledwie niecałe 32 tysiące. Telewizja zawsze była piętą achillesową multimediów - obrazy często nie są najwyższej jakości i są niepełnoekranowe. Wynika to z faktu, że sygnał telewizyjny musi być wyświetlany z prędkością 30 ramek (obrazów) na sekundę. Komputer został stworzony do wyświetlania nieruchomych obrazów, a przechowywanie i obróbka obrazów wymaga pracy na bardzo dużych plikach. Przyjrzyjmy się: pojedynczy, pełnoekranowy obraz wymaga prawie 2 MB przestrzeni na dysku; jednosekundowy film potrzebuje 45 MB.
Dodatkowo, aby otrzymać obraz telewizyjny na komputerze, sygnał musi zostać przetworzony z analogowego na cyfrowy. Poza tym sygnał ten musi być przekazywany do komputera z 10-krotnie większą prędkością, niż umożliwia to standard ISA, tak więc jest do tego potrzebna wysokowydajna karta graficzna i bardzo dobry monitor oraz gniazda rozszerzeń VL-Bus lub PCI. Po uwzględnieniu faktu, że filmy na komputerze pożerają olbrzymie ilości pamięci (pół sekundy filmu zabiera 15 MB), staje się oczywiste, iż niezbędna jest kompresja danych i to zarówno wizji, jak fonii. Skompresowane pliki nie tylko zajmują mniej miejsca na dysku, ale lepiej sieje przetwarza ze względu na mniejszą ilość danych. Przy odtwarzaniu stosowana jest dekompresja. Ale i tak potrzebny jest duży i szybki dysk zdolny do pracy z dużymi plikami. Polecam dyski o pojemności co najmniej 1-2 GB EIDE lub SCSI-2 Wyróżniamy dwa typy kompresji: sprzętową i programową. Sprzętowa jest z reguły lepsza, ale wymaga dodatkowych urządzeń. Kompresja programowa obciąża znów zasoby komputera Mamy dwa podstawowe algorytmy kompresji: *JPEG (Joint Photographic Experts Group). Metoda stworzona do nieruchomych obrazów; przeprowadza kompresję i dekompresję wystarczająco szybko, jak na potrzeby odtwarzania filmów (30 ramek na sekundę). Do obróbki wykorzystuje ciągi nieruchomych obrazów. Eliminuje redundancję z każdej klatki z osobna. Średnia kompresja wynosi 30:1 (20:1 - 40:1). *MPEG (Motion Pictures Expert Group). Ze względu na duży współczynnik kompresji i wysoką jakość, przy użyciu tej metody otrzymujemy lepsze obrazy i potrzebujemy mniej miejsca na dysku. Nie jest wykorzystywana podczas obróbki pojedynczych ekranów, ponieważ opiera się na zmianie obrazu. Do dekompresji wskazane są wysokowydajne komputery z procesorem Pentium. Do przechwytywania obrazu, kompresji i odtwarzania obrazów (filmów) konieczny jest jeszcze odpowiedni program, np. Microsoft Video for Windows (VFW) lub QuickTime. Z VFW dostarczane są następujące metody kompresji: *Cinepak. Metoda ta daje lepszą jakość obrazu i wyższy współczynnik kompresji niż Indeo, ale jest wolniejsza. Znana jest także pod nazwą Compact Video Coded (CYC). *Indeo. Szybsze od Cinepak - przeprowadza kompresję w czasie rzeczywistym (potrzebna jest karta Intel Smart Video) *Microsoft Video 1. Metoda stworzona przez firmę MediaYision jako MotiYE; nazwa zmieniona przez Microsoft na MS Video 1. Pliki są kompresowane po przechwyceniu. Aby móc pracować z obrazem wideo, niezbędny jest dodatkowy sprzęt i oprogramowanie: *Program graficzny, np: QuickTime for Windows lub Video for Windows *Karta graficzna z kompresją i digitalizacją do pracy z dużymi plikami graficznymi. * Karta konwertująca sygnał NTSC lub PAL na VGA, umożliwiająca nagrywanie na magnetowidzie. Obraz może pochodzić z różnych źródeł: telewizji, magnetowidu, kamery wideo, odtwarzacza płyt laserowych. Dane te mogą być przechowywane w plikach różnych formatów: AYI (Audio Video lnterleave), FLI (daje obraz o rozdzielczości 320x200) lub FLC (obraz dowolnego rozmiaru).
Możesz dołączać filmy do multimedialnych prezentacji, wykorzystując np. program Icon Author firmy AIMTECH, lub jako obiekty OLE do programów Microsoft Word, Excel, Access lub innego programu zgodnego z OLE. Do podłączania urządzeń wideo używaj kabla S-VHS, gdyż daje on najlepszy sygnał ze względu na rozdzielenie sygnałów koloru i jasności. Możesz wprawdzie wykorzystać złożony sygnał wideo z połączonymi sygnałami koloru i jasności, ale ma on gorszą jakość. A im lepsza jakość sygnału telewizyjnego, tym lepsza jakość obrazu. Na rynku są również urządzenia umożliwiające wyświetlanie obrazu telewizyjnego w komputerze. Wkrótce nie rozróżnisz, czy oglądasz film na ekranie monitora, czy telewizora. Przy użyciu nowoczesnego sprzętu dekodującego oraz czytników DVD można używać komputera jako alternatywy wobec magnetowidu. A wkrótce powstaną pewnie biblioteki klipów MPEG. Rozwój sprzętu i wzbogacenie architektury procesora Pentium o instrukcje MMX sprawiają, że wideo na komputerze staje się rzeczywistością.
Akceleratory grafiki 3D Najnowszym trendem w grafice komputerowej jest intensywne korzystanie z trójwymiarowych obrazów. Trójwymiarowe - czyli 3D - obrazy były od lat stosowane w grach komputerowych, okazyjnie pojawiały się także w poważnych aplikacjach biurowych. Arkusze kalkulacyjne, na przykład Microsoft Excel, już od lat wykorzystują trójwymiarowe wykresy do prezentacji danych. Oczywiście, te obrazy nie są naprawdę trójwymiarowe, gdyż sam ekran monitora jest dwuwymiarowy, jednak oprogramowanie może tworzyć efekt trójwymiarowości poprzez zastosowanie perspektywy, tekstur i cieniowania. Abstrakcyjne kształty w rodzaju wykresów Excela nie są zbyt trudne do stworzenia, gdyż składają się wyłącznie z wielokątów i innych kształtów wypełnionych jednolitym kolorem w różnych odcieniach. Prawdziwy urok grafiki 3D możesz odkryć w tzw. środowiskach rzeczywistości wirtualnej, tworzonych w grach i innych aplikacjach. Tak jak w przypadku innych rodzajów multimediów, techniki wykorzystywane w grach stopniowo przechodzą do zastosowań profesjonalnych. Obraz 3D może zawierać ogromną ilość szczegółów, zaś animowane sekwencje 3D, na przykład w grach, mogą się składać z wielkiej ilości obrazów. Oczywiście, im więcej obrazów, tym więcej miejsca na dysku trzeba na ich przechowanie i tym większa moc jest potrzebna na ich obróbkę i wyświetlanie. Aby móc przetworzyć tak dużo szczegółów, aplikacje 3D zwykle nie operują samymi obrazami, lecz korzystają z matematycznego opisu obrazu. Obrazy 3D są w ogromnej większości generowane - renderowane - w miarę potrzeb, a nie odczytywane z nośnika. Aby skonstruować animowaną sekwencję 3D, komputer może matematycznie wyliczyć położenia obiektów pomiędzy ramkami kluczowymi. Kluczowa ramka określa położenie konkretnych punktów obiektu. Na przykład odbijająca się piłka może mieć trzy ramki kluczowe: góra, dół, góra. Korzystając z tych ramek jako z punktów odniesienia, komputer może tworzyć wymagane obrazy pośrednie pomiędzy górnym i dolnym położeniem piłki, tworząc efekt jej płynnego ruchu. Po stworzeniu podstawowej sekwencji, system może znacznie poprawić wygląd obiektów wypełniając je kolorem. Najprymitywniejsza i najmniej efektywna metoda nosi nazwę cieniowania płaskiego (ang. flat shading), w którym kształt jest po prostu wypełniany jednolitym kolorem. Cieniowanie Gourauda (ang. Gouraud shading) jest bardziej efektowną techniką, w której obliczony kolor jest przypisywany pewnym punktom obiektu. Następnie te punkty są łączone przy pomocy płynnego przejścia pomiędzy kolorami dwóch punktów
Jednak lepsze efekty (i wymagające największej mocy procesora) daje zastosowanie tzw. mapowania teksturami (ang. texture mapping). Aplikacje 3D posiadają wzory -tekstury - w formie małych bitmap, które są nakładane na kształt obiektu, podobnie jak mały obrazek tworzy kafelki wypełniające pulpit Windows. Podstawowa różnica polega na tym, że aplikacja 3D może modyfikować wygląd każdego kafelka dodając do niego perspektywę i cieniowanie w celu osiągnięcia efektu trójwymiarowości. Do niedawna aplikacje 3D musiały korzystać wyłącznie z programowych metod generowania obrazów. Wymagało to dużego wysiłku procesora komputera, co miało ogromny wpływ nie tylko na szybkość generowania klatek animacji, ale także na szybkość działania innych aplikacji uruchomionych w systemie. Obecnie coraz częściej pojawiają się karty graficzne posiadające tzw. akceleratory 3D, które przejmują na siebie większość zadań związanych z generowaniem trójwymiarowych scenek, znacznie odciążając procesor komputera. Akceleratory 3D gwałtownie tanieją i korzysta z nich coraz więcej programów. Technologia, na którą do niedawna stać było jedynie najbogatszych użytkowników potężnych stacji graficznych, obecnie stała się dostępna dla przeciętnego użytkownika komputera osobistego. Generując obrazy bezpośrednio w karcie graficznej, akceleratory 3D mogą tworzyć gładkie, fotorealistyczne trójwymiarowe obrazy z szybkością porównywalną do tańszych stacji graficznych. Technologia 3D stworzyła całkowicie nowy słownik w świecie kart graficznych. Zanim więc kupisz akcelerator 3D, z pewnością zechcesz się zapoznać z niektórymi terminami i określeniami związanymi z trój wymiarową grafiką. Podstawową funkcją oprogramowania obsługującego grafikę trójwymiarową jest przetwarzanie symbolicznych obrazów w obraz widoczny na monitorze. W skład tych abstrakcji wchodzą: * Wierzchołki (Yertices). Określają pomocą współrzędnych X, Y i Z.
położenie
* Figury geometryczne (Primitives). względnym położeniem wierzchołków.
Proste
w
przestrzeni obiekty
trójwymiarowej
geometryczne
za
opisane
* Tekstury (Textures). Obrazy lub powierzchnie dwuwymiarowe kryjące figury. W zależności od zaawansowania oprogramowania lub sprzętu, możliwe są różne tryby krycia teksturami. Korekcja perspektywy, MIP mapping (uzależnienie dokładności wyświetlania perspektyw od odległości) oraz zmiana głębi (depth cueing - technika zmniejszająca kontrasty barwne wraz z oddalaniem się przedmiotów na ekranie) to tylko niektóre pojęcia związane z obróbką tekstur Symboliczny opis obrazu musi zostać przetworzony na obraz wyświetlany. Przetwarzanie zależy od przyjętej funkcji konwertującej i obejmuje: * Przekształcanie geometrii. Określenie rozmiaru i położenia wierzchołków w przestrzeni i wyliczenie wpływu źródeł światła. * Rastryzacja. Przekształcanie obrazu z wierzchołków w ekranowe piksele poprzez wypełnianie pustych powierzchni pomiędzy wierzchołkami odpowiednio dobranymi cieniami, teksturami lub ich kombinacją.
Nowoczesne karty graficzne wyposażone w chipset akceleratora grafiki trójwymiarowej mają dodatkowo wbudowane narzędzia do rastryzacji (o wiele szybszej niż programowa). Wykonują one następujące funkcje: * Konwersja przebiegowa (scan conversion). Określa przyporządkowanie pomiędzy ekranowymi pikselami i figurami geometrycznymi generowanymi przez komputer. * Cieniowanie. Wypełnianie powierzchni kolorami przy użyciu algorytmu Gourauda lub innych. * Teksturowanie. Można przyrównać do tapetowania powierzchni w przestrzeni płaską grafiką (teksturami) * Określenie widocznej powierzchni. Ustalenie, które piksele są przez obserwatora dostrzegalne, a które są zasłonięte. * Animacja. Szybkie przechodzenie do następnych klatek ruchomych sekwencji. Jeśli przy przetwarzaniu obrazów wykorzystujemy akceleratory sprzętowe, otrzymujemy wyższą jakość obrazu i szybszą animację niż podczas pracy z samym programem. Użycie specjalnych sterowników pozwala na przejęcie przez akceleratory skomplikowanych obliczeń wykonywanych wcześniej programowo. Jest to szczególnie przydatne przy pracy z grafiką trójwymiarową lub z grami intensywnie korzystającymi z grafiki trójwymiarowej
Chipsety 3D Tak jak w przypadku kart 2D, istnieje kilku producentów popularnych chipsetów 3D i wielu wytwórców wykorzystujących je w swoich konstrukcjach.
Problemy z kartami graficznymi i monitorami Rozwiązywanie problemów związanych z kartami graficznymi i monitorami jest stosunkowo proste, chociaż kosztowne, gdyż zwykle polega na wymianie uszkodzonej karty lub monitora. Wynika to z wyższych kosztów naprawy niż wymiany, a poza tym dokumentacja serwisowa (schematy elektryczne, zastawienia elementów) jest właściwie nieosiągalna. Wiele kart wytwarza się z użyciem montażu powierzchniowego - tu nie można sobie pozwolić na użycie zwykłej lutownicy, a z kolei inwestycja w odpowiednie urządzenia jest raczej nieopłacalna. Trochę inaczej przedstawia się sprawa, jeśli chodzi o monitory - niektóre są zbyt drogie, aby je po prostu wymienić. Najlepiej kontaktować się z firmą, w której nabyłeś monitor, lub z firmą specjalizującą się w naprawie monitorów. Musisz dostarczyć takiej firmie swój monitor; jej pracownicy naprawią uszkodzony podzespół albo wymienią go na identyczny za stosunkowo niewielkie pieniądze. Ponieważ najczęściej firma jedynie wymienia uszkodzony podzespół, naprawiony monitor wraca do ciebie stosunkowo szybko. W wyjątkowych wypadkach, gdy posiadasz rzadki typ monitora albo gdy akurat firma nie posiada w magazynie odpowiedniej części, będziesz musiał poczekać, aż zostanie naprawiony twój monitor. Określenie uszkodzenia monitora jest stosunkowo proste. W przypadku problemów podłącz najpierw do komputera inny monitor. Jeżeli będzie działał prawidłowo, oznacza to, iż pierwszy monitor jest uszkodzony, natomiast jeżeli problem pozostanie - wskazuje to na uszkodzenie karty graficznej lub samego komputera. Kiedy już wiesz, że to monitor jest uszkodzony, przekaż go do firmowego serwisu lub do innej firmy naprawiającej monitory - tam może być nawet trochę taniej
Nie próbuj naprawiać monitora samodzielnie. Dotknięcie niektórych elementów jest niebezpieczne ze względu na bardzo wysokie napięcia utrzymujące się przez dłuższy czas po wyłączeniu monitora. Specjalista z serwisu rozładowuje lampę kineskopową i większe kondensatory przed naprawami Większość monitorów umożliwia tylko proste regulacje, a w przypadku monitorów kolorowych regulacje te są dla niedoświadczonego użytkownika bardzo kłopotliwe. W przypadku nowszych modeli, problemy mogą mieć nawet niektóre firmy serwisowe ze względu na brak odpowiedniej dokumentacji. Dlatego też najczęściej wymieniają uszkodzony podzespół, zostawiając jego naprawę na później. Staraj się więc wybierać monitor firmy posiadającej serwis w pobliżu twego miejsca zamieszkania. Jeśli masz problem z monitorem lub kartą graficzną, warto skontaktować się z producentem może to nie jedyny przypadek takiej awarii. Duża ilość monitorów IBM 8513 została wykonana z elementów zmieniających z czasem swoje parametry, co powodowało utratę ostrości. IBM wymieniał bezpłatnie wszystkie monitory 8513 mające tę wadę. Obecnie nie można już ich wymienić, ponieważ zostały wycofane z produkcji Jednak większość problemów z monitorami i kartami graficznymi wynika z użycia niewłaściwych sterowników. Na wszelki wypadek skontaktuj się z producentem, aby upewnić się, że posiadasz właściwe i najnowsze sterowniki
DisplayMate DisplayMate to program diagnostyczny dokładnie testujący kartę graficzną i monitor. Większość programów testujących sprzęt komputerowy nie przywiązuje takiej wagi do układów grafiki. DisplayMate nie tylko sprawdza poprawność działania karty graficznej, ale również testuje monitor. Możesz sprawdzić jakość obrazu poprzez regulację ostrości, jasności, kontrastu, nasycenia kolorów. W przypadku zakupu nowego monitora możesz wykorzystać DisplayMate do określenia ostrości i liniowości monitora, co pomoże ci wybrać najlepszy sprzęt. Jeśli wykorzystujesz projektor do prezentacji, tak jak ja podczas wykładów o komputerach, DisplayMate będzie nieoceniony przy ustawieniu i wyregulowaniu projektora. DisplayMate może również przeprowadzić gruntowne testy karty graficznej ustawiając wszystkie możliwe tryby pracy. Określi możliwości karty: jej rozdzielczość, ilość kolorów i prędkość. Możesz więc porównać możliwości różnych kart graficznych
Rozdział 11.
Porty komunikacyjne i sieci komputerowe W niniejszym rozdziale zajmiemy się połączeniami i komunikacją między komputerami zwykłe odbywa się to poprzez porty szeregowe, równoległe lub karty sieciowe. Połączenia takie mają na celu wymianę i współdzielenie plików, wysyłanie poczty elektronicznej, dostęp do programów umieszczonych na innych komputerach. Ogólnie mówiąc, chodzi o współpracę pomiędzy komputerami, a w zasadzie między ich użytkownikami W celu uzyskania szczegółowych informacji o sieciach komputerowych, patrz: „Przewodnik o sieciach rozległych" wydawnictwa HELION
Porty i urządzenia komunikacyjne Podstawowymi portami komunikacyjnymi w każdym komputerze są porty szeregowe i równoległe. Porty szeregowe wykorzystuje się przede wszystkim do połączenia z urządzeniami komunikującymi się z komputerem, jak modemy, myszki, skanery itp. Niektóre firmy zajmują się tworzeniem oprogramowania zapewniającego szybki transfer danych między komputerami z wykorzystaniem portów szeregowych i równoległych. Dostępnych jest również wiele programów używających portów równoległych do różnych, niestandardowych połączeń. Na przykład z portem równoległym mogą współpracować karty sieciowe, streamery, napędy CD-ROM, napędy dyskietek.
Porty szeregowe Asynchroniczny interfejs szeregowy jest podstawowym portem komunikacyjnym komputera. Asynchroniczność oznacza brak sygnału synchronizującego lub taktowania zegara - znaki są przesyłane bez określonych przerw czasowych Każdy wysyłany znak jest poprzedzony i zakończony odpowiednimi sygnałami początku i końca. Pojedynczy bit O, zwany bitem początkowym, poprzedza każdy znak informując system odbierający, że następne 8 bitów stanowi bajt danych. Po przesłaniu znaku wysyłany jest jeden lub dwa bity końca. Po stronie odbiorcy znaki są rozpoznawane dzięki bitom początku i końca niezależnie od czasu ich dotarcia. Interfejs asynchronicz-ny służy do transmisji znaków i przesyła ok. 20% informacji nadmiarowej potrzebnej do identyfikacji każdego znaku. Słowo „szeregowy" odnosi się do sposobu przesyłania danych - poszczególne bity wysyłane są pojedynczo. Taki typ komunikacji wykorzystuje się w łączności telefonicznej, jeden przewód dla łączności w danym kierunku. Wielu producentów dostarcza dodatkowe porty szeregowe. Występują również na płytach wielofunkcyjnych lub na płytach z portem równoległym. Właściwie wszystkie współczesne płyty główne posiadają układ I/O sterujący jednym lub dwoma portami szeregowymi. Oznacza to, że gdy jesteśmy ich posiadaczami, właściwie nie musimy się posługiwać kartami rozszerzeń z portami szeregowymi. Proszę zwrócić uwagę na to, że modemy wewnętrzne wykorzystujące port szeregowy są fabrycznie zaopatrzone w układ sterujący tym portem. Na rysunku 11.1 przedstawiamy standardowy port 9-pinowy, na rysunku 11.2 - standardowy port 25-pinowy. Użyto nomenklatury angielskiej, ze względu na powszechność skrótów pochodzących od nazw sygnałów w tym języku
Do portu szeregowego można podłączać różne urządzenia: modemy, plotery, drukarki, inne komputery, czytniki kodu kreskowego, układy sterujące urządzeniami. Ogólnie mówiąc, dowolne urządzenie potrzebujące dwustronnej komunikacji z komputerem korzysta z portu szeregowego, łącząc się z nim interfejsem RS-232c (Referenced Standard number 232 revisionc). Dzięki temu można połączyć teoretycznie niekompatybilne urządzenia. Tabele 11.1, 11.2, 11.3 przedstawiają opis złącz dla portu 9-pinowego, 25-pinowego i łącznika 9-25 Tabela 11.1. 9-pinowe złącze portu szeregowego Numer pinu
Sygnał
Opis sygnału
Kierunek sygnału
1
CD
Carrier Detect
Wejściowy
2
RD
Receive Data
Wejściowy
3
TD
Transmit Data
Wyjściowy
4
DTR
Data Terminal Ready
Wyjściowy
5
SG
Signal Ground
-
6
DSR
Data set Ready
Wejściowy
7
RTS
Request to Send
Wyjściowy
8
CTS
Clear to Send
Wejściowy
9
RI
Ring Indicator
Wejściowy
Rysunek 11.1. Port szeregowy 9-pinowy
Tabela 11.2. 25-pinowe złącze portu szeregowego Numer pinu Sygnał
Opis sygnału
Kierunek sygnału
1
Ziemia obudowy
-
2
TD
Transmit Data
Wyjściowy
3
RD
Receive Data
Wejściowy
4
RTS
Reąuest To Send
Wyjściowy
5
CTS
Clear To Send
Wejściowy
6
DSR
Data Set Ready
Wejściowy
7
SG
Ziemia Sygnału
-
8
CD
Carrier Detect
Wejściowy
9 11 18 20
DTR
+Transmit current loop - Transmit current loop + Receive current loop Data Terminal Ready
Wyjściowy Wyjściowy Wejściowy Wyjściowy
22
RI
Ring Indicator
Wejściowy
25
-
Wejściowy
Rysunek 11.2. 25-pinowy port szeregowy
Tabela 11.3. Połączenie portów 9-pinowego i 25-pinowego Numer pinu portu 9pinowego
Numer pinu portu Sygnał Opis sygnału 25-pinowego
1
K
CD
Carrier Detect
2
3
RD
Receive Data
3
2
TD
Transmit Data
4
20
DTR
Data Terminal Ready
5
7
SG
Signal Ground
6
6
DSR
Data Set Ready
7
4
RTS
Request To Send
8
5
CTS
Clear To Send
9
22
RI
Ring Indicator
Komputery Macintosh wykorzystują podobny interfejs szeregowy, oznaczony jako RS422. Większość modemów zewnętrznych łączy się z komputerem albo przez RS-232, albo przez RS-422, ale lepiej wybierać modem przystosowany do współpracy z PC-tem, a nie z Macintoshem.
UART Sercem każdego portu szeregowego jest układ UART (Universal Asynchronous Receiver /Transmitter). Steruje on procesem zamiany formatu danych z równoległego na szeregowy i odwrotnie. Dostępnych jest wiele układów UART. Pierwsze komputery PC i XT używały układu 8250, który jest jeszcze wykorzystywany w tańszych kartach szeregowych. W komputerach PC/AT i innych opartych na procesorze 80286 lub lepszym używa się układów UART 16450. Jedyną różnicą między tymi układami jest dostosowanie tego ostatniego do wyższych prędkości transmisji; poza tym są identyczne. W komputerach PS/2 wykorzystywano na początku układ UART 16550. Działał jak wcześniejsze układy 16450 i 8250, ale posiadał dodatkowo 16-bajtowy bufor przyśpieszający przesyłanie danych. Określa się go czasami buforem FIFO (first in/first out). Układ 16550 miał jednak kilka niedociągnięć, szczególnie w układzie bufora. Zostały one poprawione w układzie 16550A, który jest stosowany obecnie we wszystkich wysoko wydajnych portach szeregowych. Układ 16550 jest kompatybilny z układem 16450 również pod względem położenia pinów, tak więc jeśli posiadasz układ 16450 w podstawce, możesz w prosty i tani sposób zwiększyć wydajność portu szeregowego wymieniając go na 16550.
Ponieważ układ 16550A jest znacznie lepszy od swoich poprzedników, wskazane jest wybieranie portu szeregowego właśnie z tym układem. W celu sprawdzenia, jaki układ masz w swoim porcie szeregowym, możesz posłużyć się programem MSD, dostarczanym razem z DOSem 6.x, Windows i Windows 95 W Windows 95 możesz również kliknąć prawym klawiszem myszki ikonę Mój komputer i z rozwiniętego menu kontekstowego wybrać Właściwości. Otworzy się okienko dialogowe z Właściwościami systemu. Wybierz zakładkę Menedżer urządzeń, Porty, a następnie port, który chcesz sprawdzić. Wybierz zakładkę Ustawienie portu i kliknij przycisk Zaawansowane. Otworzy się okienko z zaawansowanymi ustawieniami portu. Jeżeli posiadasz układ 16550, będzie zaznaczona opcja wyboru Użyj buforów FIFO Początkowo jedynym producentem układu UART była firma National Semiconductor (NS), lecz obecnie wiele firm wytwarza klony tego układu, tak więc prawdopodobnie układ UART w twoim komputerze jest właśnie takim klonem (najlepiej układu 16550). Nie ma między nimi właściwie żadnej różnicy, jednak niezależnie od posiadanego układu dobrze wiedzieć, czy zawiera bufor FIFO. Niektórzy producenci wytwarzają układy scalone zawierające funkcje kilku układów. Np. firma Boca Research sprzedaje karty z portami szeregowymi i równoległymi, zawierające praktycznie sam układ scalony. Większość tego typu układów działa jak układ 16550, jednak nigdy nie zaszkodzi upewnić się przed zakupem.
Szybkie porty szeregowe Niektórzy producenci modemów poszli o krok dalej w usprawnianiu szeregowej transmisji danych, wprowadzając szybkie porty szeregowe ESP (Enhanced Serial Port) i Super High Speed Serial Port. Porty te umożliwiają modemom pracującym z prędkością 28,8 kb/s wymianę danych z komputerem z prędkością 921600 b/s. Prędkość ta została osiągnięta dzięki zwiększeniu rozmiaru bufora. Porty te posiadają układ 16550AF lub jego emulator z dwoma buforami po 1024 bajty i wbudowaną w układ funkcją sterowania przepływem danych. Porty tego typu dają duże korzyści, pod warunkiem, że znajdują się na obu końcach połączenia. Ze względu na zapotrzebowanie użytkowników na większą ilość portów szeregowych niż standardowe dwa, stworzono wieloportowe karty szeregowe (multi-port serial card), posiadające od 2 do 32 portów. Dodatkowo zapewniają one wyższe prędkości transmisji. Większość wieloportowych kart szeregowych wykorzystuje układ UART 16550 z procesorem (najczęściej jednym z serii 80x86) i pewną ilością pamięci. Dzięki dedykowanemu procesorowi obsługującemu komunikację szeregową zyskuje się trochę na wydajności, jednak w przypadku zastosowań wymagających szybkiej transmisji inne rozwiązania mogą się okazać dużo lepsze
Tabela 11.4. Układy UART Układ i Opis 8250 IBM używał tego układu w kartach portów szeregowych w pierwszych komputerach. Posiadał kilka drobnych wad uwzględnionych w BlOS-ach komputerów PC i XT. Został zastąpiony przez układ 8250B. 8250A Tego układu nie należy używać. Zostały w nim usunięte błędy układu 8250 (m.in. w rejestrze przerwań), lecz ze względu na dopasowanie BIOS-ów komputerów PC i XT do układu 8250, układ 8250A nie działał z nimi prawidłowo. Może pracować tylko z komputerami AT bez zmienionego BIOS-u, ale nie pracuje właściwie przy 9600 b/s. 8250B Ostatni z serii układów 8250, w którym usunięto usterki poprzedników, ale przywrócono błąd w rejestrze przerwań oczekiwany przez BlOS-y komputerów PC i XT. Jest to najlepszy układ dla komputerów PC i XT; może również pracować pod DOS-em z komputerami AT, lecz nie pracuje właściwie przy 9600 b/s. 16450 Jest to szybsza wersja układu 8250, przeznaczona dla komputerów AT. Ze względu na usunięte błędy poprzednich układów, nie działa prawidłowo z komputerami PC i XT. System OS/2 wymaga co najmniej tego układu do poprawnej współpracy z portem szeregowym. Jako najwyższy rejestr posiada scratch-pad register. Układ ten jest głównie wykorzystywany w komputerach AT ze względu na zwiększoną przepustowość w porównaniu do 8250. 16550 Ulepszona wersja układu 16450. Nie może być używany w trybie buforowania FIFO ze względu na błędy projektowe, można jednak wykorzystywać wielokrotne kanały DMA i w ten sposób zwiększyć szybkość przesyłania danych w komputerach AT i lepszych. Osobiście polecam jego wymianę na układ 16550A 16550A Układ ten jest szybszy od układu 16450 z 16-znakowym buforem FIFO. Umożliwia również dostęp do kanałów DMA. Powinieneś się zdecydować na ten układ, jeżeli korzystasz z większej prędkości portu szeregowego niż 9600 b/s. Jeśli wykorzystywane przez ciebie programy komunikacyjne używają bufora FIFO, układ 16550A zapewni znaczne zwiększenie prędkości transmisji oraz wyeliminuje utratę danych przy wyższych prędkościach. Większość obecnie produkowanych układów zgodnych z 16550A ma maksymalne ograniczenie przesyłu do 115 kbps (kilobitów na sekundę) 16650 Układy te nie pochodzą od National Semiconductors. Różnią się od pierwowzorów większym buforem, a ich oznaczenie ma sugerować większe możliwości w stosunku do poprzednika. Układy 16650 posiadają najczęściej 32 bajty buforu, a 16750 maj ą 64 bajty. Większy bufor umożliwia pracę przy większych prędkościach, dochodzących do 460 kbps. Ich stosowanie jest szczególnie zalecane przy pracy z urządzeniami ISDN W niektórych lepszych kartach wieloportowych zrezygnowano z użycia układu UART 16550 na rzecz pojedynczego układu scalonego; posiadają one wyższą przepustowość bez utraty danych. Przykładem może być karta Rocketport produkowana przez firmę Comtrol. Występuje w wersjach ISA i PCI, posiada do 32 portów o obciążeniu 232 kilobodów każdy. Różni producenci wytwarzają wiele wersji układu 16550A stworzonego przez firmę National Semiconductor. Pełny numer tego 40-pinowego układu DIP to NS16550D lub NS16550AFN. Upewniaj się, że posiadasz układ 16550A, a nie jego starszą wersję 16550. W celu uzyskania układu NS16550D możesz skontaktować się z firmami Fry's Electronics lub Jameco Electronics.
Konfigurowanie portu szeregowego Za każdym razem, kiedy port szeregowy odbiera znak danych, aby zwrócić na siebie uwagę komputera, wysyła impuls elektryczny na jedną z linii IRQ (Interrupt Request -żądanie przerwania). 8-bitowe magistrale ISA posiadają 8 takich linii, a 16-bitowe - 16. Przerwaniami steruje specjalny układ 8259. W standardowej konfiguracji port COM1 używa przerwania IRQ4, a port COM2 - przerwania IRQ3. Podczas instalowania portu szeregowego, danemu portowi musi zostać przypisany adres (port) i przerwanie (IRQ - Interrupt ReQuesf). Najlepiej wykorzystywać standardowe przypisania są one przedstawione w tabeli 11.5. Tabela 11.5. Standardowa konfiguracja portów szeregowych System
COMx
Adres
Przerwanie (IRQ)
Wszystkie
COM1
3F8h
IRQ4
Wszystkie
COM2
2F8h
IRQ3
ISA
COM3
3E8h
IRQ4*
ISA
COM4
2E8H
IRQ3*
* Chociaż wiele portów może wspólnie wykorzystywać przerwania IRQ3 i IRQ4 z portami COMl i COM2, nie polecam tego rozwiązania - lepiej dla portu COM3 użyć przerwania IRQ5, a w przypadku korzystania z więcej niż trzech portów najlepiej kupić wieloportową kartę szeregową. W przypadku wykorzystywania większej ilości portów szeregowych niż standardowe dwa, upewnij się, że mają one przypisane unikatowe przerwania, a kupując dodatkową kartę z portami szeregowymi sprawdź, czy może korzystać z innych przerwań niż IRQ3 i IRQ4. Dodatkowym problemem jest brak obsługi portów COM3 i COM4 ze strony BIOS-u w komputerach IBM z magistralą ISA. Komenda DOS-u „MODĘ" nie może współpracować z portami szeregowymi wyższymi od COM2, ponieważ DOS czerpie informację o urządzeniach wejścia/wyjścia z BIOS-u, który sprawdza zainstalowane urządzenia podczas startu komputera, a dokładnie w czasie procedury POST (Power On SelfTest).Procedura POST w starszych komputerach szuka tylko pierwszych dwóch zainstalowanych portów. Komputery PS/2 posiadają ulepszony BIOS, wykrywający do ośmiu portów szeregowych, chociaż DOS i tak może obsłużyć tylko cztery. Windows 9x gwarantuje obsługę do 128 portów szeregowych. Aby poradzić sobie z tym problemem, większość oprogramowania komunikacyjnego i niektóre urządzenia peryferyjne, jak np. myszki, mogą współpracować z wyższymi portami dzięki bezpośredniemu adresowaniu zamiast korzystania z wywołań DOS-a.Np. program komunikacyjny Prokomm współpracuje z dodatkowymi portami, nawet jeżeli tego nie umożliwiają BIOS i DOS. Problem jednak pozostaje, jeżeli sam komputer nie może obsłużyć dodatkowych portów lub trzeba skorzystać z komendy DOS-u „MODĘ".
Rozszerzone możliwości obsługi portów szeregowych przez Windows umożliwiają wykorzystanie karty wieloportowej, co pozwala na podłączenie wielu urządzeń przy użyciu tylko jednego gniazda rozszerzeń i jednego przerwania. Jest dostępnych wiele narzędzi programowych przekazujących BlOS-owi informację o portach COM, czyniąc port widocznym dla DOS-a. Jednym z najlepszych tego typu programów jest Port Finder dostępny w bibliotece „general hardware" na forum PCHW w CompuServe. Port Finder uaktywnia dodatkowe porty przekazując BlOS-owi adresy i dostarczając narzędzi do wymiany adresów pomiędzy różnymi portami, co umożliwia programom nie widzącym portów COM3 i COM4 dostęp do nich. Port Finder pozostaje niewidoczny dla programów, które bezpośrednio adresuj ą dodatkowe porty Używanie tych samych przerwań dla portów czy innych urządzeń czasami działa, a czasami nie. Dlatego nie polecam takiego rozwiązania. Możesz spędzić wiele godzin na poszukiwaniu odpowiednich sterowników, patchów, aby poprawnie skonfigurować komputer
Testowanie portów szeregowych Porty szeregowe i równoległe można testować na kilka sposobów. Najbardziej popularne są testy tylko programowe lub programowe i sprzętowe. Pierwsze z nich wykonywane są przez programy diagnostyczne, np. MSD Microsoftu, a drugie - z użyciem specjalnej wtyczki pętlowej.
Program diagnostyczny MSD (Microsoft Diagnostics) Program MSD jest dostarczany razem z programami DOS 6.x, Windows i Windows 95. Wcześniejsze wersje tego programy były dostarczane także z innymi programami Microsoftu, m.in. z Microsoft Word for DOS. Na dysku Windows 95 program znajdował się w katalogu \other\msd, a na dysku Windows 98 - w katalogu \tools\oldmsdos. Wiele programów diagnostycznych pracuje najlepiej, gdy się je uruchomi z „gołego" DOS-a. Dlatego proponuję przed uruchomieniem MSD wyjść z Windows i uruchomić komputer w trybie MS-DOS. Następnie należy przejść do katalogu, w którym znajduje się uprzednio skopiowany program. Nie jest to konieczne w przypadku, gdy ów katalog znajduje się na ścieżce przeszukiwań - często tak jest, jeżeli masz zainstalowanego DOS-a 6.x lub Windows. Następnie w linii komend napisz „MSD" i naciśnij Enter. Ukaże się ekran programu MSD. Wybierz opcję Serial Ports (Porty szeregowe). Zwróć uwagę, że przedstawiona jest również informacja dotycząca użytego układu portu szeregowego oraz tego, jakie porty są dostępne. Jeżeli któryś z portów jest w użyciu, ta informacja jest także uwidoczniona. Program MSD jest pomocny w sprawdzeniu, czy port funkcjonuje poprawnie. Jeżeli nie stwierdzi obecności portu, nie uwzględni go w raporcie. Tego prostego testu używam jako pierwszego w celu sprawdzenia nie działającego portu. Również w Windows 95 możesz sprawdzić, czy działają porty. Kliknij najpierw prawym klawiszem myszy na ikonę Mój komputer i wybierz Właściwości. Wybierz zakładkę Menedżer urządzeń. Jeżeli urządzenie nie działa, w oknie Menedżera urządzeń obok danego urządzenia będzie wykrzyknik w żółtym kole. Możesz również kliknąć dwa razy na ikonę Porty (COM i LPT), następnie podwójnie kliknąć na dany port - Windows 95 przedstawi wtedy informację, czy port działa, czy nie. W wielu przypadkach dowiesz się, co jest przyczyną problemu.
Zaawansowane testy z wykorzystaniem wtyczki pętlowej (loopback test) Jednym z najbardziej użytecznych testów jest tzw. loopback test, który można wykorzystać do sprawdzenia poprawnego działania portu szeregowego oraz podłączonych kabli. Wyróżniamy dwa rodzaje testów: wewnętrzny (cyfrowy) i zewnętrzny (analogowy). Test wewnętrzny przeprowadzamy odłączając od portu kable i uruchamiając program diagnostyczny. Test zewnętrzny ma większe możliwości. Aby go przeprowadzić, musisz posiadać specjalną wtyczkę pętlową i podłączyć ją do sprawdzanego portu. Podczas testu, port wysyła dane do tej wtyczki, która kieruje je z powrotem na piny wejściowe portu, tak że port w tym samym czasie wysyła i odbiera dane. Tego typu wtyczki są najczęściej dołączone do programów diagnostycznych. Można je również kupić osobno, a nawet wykonać samodzielnie Dodatkową zaletą takiego testowania jest możliwość podłączenia testującej wtyczki (lub gniazdka - połączenia te same) na końcu kabla, co umożliwia dodatkowo przetestowanie kabla. Jeśli chcesz wykonać dodatkowe testy, zajrzyj do rozdziałów 22. i 23., w których przedstawiłem kilka programów diagnostycznych.
Porty równoległe Port równoległy posiada osiem linii do jednoczesnego przesyłania wszystkich bitów składających się na bajt. Jest to szybki interfejs wykorzystywany tradycyjnie do podłączania drukarek. Również programy przesyłające dane pomiędzy komputerami zawsze posiadały opcjonalną możliwość wykorzystania portu równoległego, ponieważ dane można było wysyłać po cztery bity od razu, zamiast po jednym bicie, jak to się dzieje w przypadku interfejsu szeregowego. W tym podrozdziale dowiemy się, jak te programy przesyłają dane pomiędzy portami. Jedynym ograniczeniem transmisji równoległej jest konieczność wzmacniania sygnału po przekroczeniu pewnej długości przewodu, w przeciwnym wypadku pojawią się błędy. W tabeli 11.6 przedstawiamy opis standardowego 25-pinowego portu równoległego. Tabela 11.6. 25-pinowy port równoległy komputera osobistego Numer pinu
Opis
Kierunek sygnału
1
- Strobe
Wyjściowy
2
+ Data Bit 0
Wyjściowy
3
+ Data Bit 1
Wyjściowy
4
+ Data Bit 2
Wyjściowy
5
+ Data Bit 3
Wyjściowy
6
+ Data Bit 4
Wyjściowy
7
+ Data Bit 5
Wyjściowy
8
+ Data Bit 6
Wyjściowy
9
+ Data Bit 7
Wyjściowy
10
- Acknowledge
Wejściowy
11
+ Buisy
Wejściowy
12
+ Paper End
Wejściowy
13
+ Select
Wejściowy
14
- Auto Feed
Wyjściowy
15
- Error
Wejściowy
16
- Initialize Printer
Wyjściowy
Numer pinu Opis
Kierunek sygnału
17
- Select Input
Wyjściowy
18
- Data Bit 0 Return Wejściowy
19
- Data Bit 1 Return Wejściowy
20
- Data Bit 2 Return Wejściowy
21
- Data Bit 3 Return Wejściowy
22
- Data Bit 4 Return Wejściowy
23 24
- Data Bit 5 Return Wejściowy - Data Bit 6 Return Wejściowy
25
- Data Bit 7 Return Wejściowy
Przez lata opracowano kilka typów portów równoległych. Niektóre są specyficzne dla komputerów produkowanych przez IBM, inne dla komputerów osobistych. Poniżej przedstawiani główne typy portów równoległych:
*Jednokierunkowy (4-bitowy) *Dwukierunkowy(8-bitowy) *Typ l (standardowy) *DMA Typ 3 (IBM) *E P P (Enhanced P ar el lei Port) *ECP (Enhanced Capabilities Port)
Port jednokierunkowy (4-bitowy) Pierwsze oryginalne komputery IBM mogły mieć tylko jeden rodzaj portu równoległego; był on wykorzystywany do wysyłania informacji z komputera do urządzenia zewnętrznego, np. drukarki. Nie oznacza to, że porty dwukierunkowe w ogóle nie były używane - były, ale w komputerach innych marek i u hobbystów.
Jednokierunkowość portu równoległego pierwszych PC-tów była ściśle związana z ich podstawowym przeznaczeniem - wysyłaniem danych do drukarki. Oczywiście czasami przydałby się port dwukierunkowy, np. kiedy potrzeba odpowiedzi zwrotnej od drukarki, co jest powszechne w przypadku drukarek postscriptowych. Takich drukarek niestety nie można było wtedy używać korzystając z jednokierunkowego portu. Chociaż w pierwotnych założeniach projektowych porty te nie miały być używane do przyjmowania danych, niektórzy producenci dodali dodatkowe 4 linie sygnałowe, aby uzyskać 4-bitowe wejście. Porty te mogą więc pracować jako 8-bitowe wyjście i 4-bitowe wejście. Jest to nadal popularne rozwiązanie w komputerach niższej klasy, lecz komputery wytwarzane po 1993 roku posiadają lepsze porty równoległe (8-bitowe, EPP lub ECP). 4-bitowe porty standardowo przenoszą dane z prędkością 40-60 kb/s, ale dzięki odpowiednim sztuczkom projektowym mogą pracować nawet do 140 kb/s
Port dwukierunkowy (8-bitowy), typ l Wprowadzając w 1987 roku komputer PS/2, IBM wyposażył go w dwukierunkowy port równoległy. Jest to najpowszechniej obecnie wykorzystywany port równoległy w komputerach osobistych. Ten typ portu zapoczątkował prawdziwą komunikację między komputerem a urządzeniami zewnętrznymi. Osiągnięto to poprzez zdefiniowanie kilku poprzednio nieużywanych pinów i dodanie bitu statusu do wskazywania, w którą stronę w danym momencie jest przekazywana informacja. W dokumentacji IBM port ten jest nazywany portem równoległym typu 1. Inni producenci wprowadzili kompatybilne z nim porty. Porty te z reguły mogą pracować jako jednokierunkowe i dwukierunkowe -jeżeli nie zostaną dodatkowo skonfigurowane, będą działać jako jednokierunkowe. Konfiguruje sieje zazwyczaj korzystając z programu setup lub innego programu dołączonego do komputera. Większość komputerów wytworzonych od 1991 roku ma taką możliwość, chociaż nie zawsze jest to ustawienie standardowe. Porty równoległe dwukierunkowe zarówno wysyłają, jak i przyjmują dane po osiem bitów, wykorzystując standardowe 8-bitowe linie danych. Są znacznie szybsze od portów 4-bitowych i mogą pracować z prędkością 80-300 kb/s, w zależności od możliwości urządzenia zewnętrznego, jakości sterownika i charakterystyk elektrycznych portu. Porty te są niezbyt sprawnie obsługiwane przez oprogramowanie, ze względu na to, iż były instalowane w komputerach PS/2, a nie w komputerach osobistych.
Port dwukierunkowy DMA (8-bitowy), typ 3 Wraz z wprowadzeniem modeli 57, 90 i 95 komputera PS/2, IBM wprowadził port równoległy, typ 3. Był to specjalny port dwukierunkowy, cechujący się dużą przepustowością dzięki wykorzystaniu technologii DMA. lest on stosowany wyłącznie w komputerach PS/2. Możesz się zastanawiać, dlaczego IBM przeskoczył od razu z typu l do typu 3. Tak naprawdę to nie przeskoczył - typ 2 istniał. Miał trochę mniejsze możliwości i poprzedził typ 3; nie był jednak nigdy szeroko stosowany w komputerach IBM. Również typ 3 nie został powszechnie zaakceptowany i nie było do niego odpowiednich sterowników.
Enhanced Parallel Port (EPP) To nowy typ portu, czasami określany mianem szybkiego portu równoległego. Został opracowany w październiku 1991 roku przez firmy Intel, Xircom i Zenith Data System (ZDS). Pierwszymi produktami z takimi portami były laptopy ZDS, karty LAN firmy Xircom i układ I/O Intela 82360 SL.
Port EPP pracuje niemalże z prędkością magistrali ISA i daje prawie 10-krotne zwiększenie przepustowości w porównaniu ze zwykłym portem równoległym - można uzyskać prędkości 1-2 Mb/s. Port EPP został zaprojektowany głównie z myślą o kartach sieciowych, dyskach i streamerach. EPP został dołączony do nowego standardu portów równoległych IEEE 1284 Od momentu stworzenia układu 82360 SL w 1992 roku, również inni producenci (m.in. National Semiconductor, SMC, Western Digital, VLSI) zaczęli wytwarzać układy o podobnych możliwościach. Problem polega na tym, że w zależności od producenta zmienia się sposób uruchomienia portu EPP, a na dodatek niektórzy producenci wytwarzają kilka rodzajów takich układów. Port EPP w wersji 1.7 (marzec 1992) był pierwszym swego rodzaju standardem i z małymi zmianami został włączony do standardu IEEE 1284. Niektóre źródła błędnie podają odniesienia do wersji EPP 1.9 - taka wersja nie istnieje, a każda wersja wyższa od 1.7 jest częścią specyfikacji IEEE 1284. W wyniku tego zamieszania pozostały jednak dwa niekompatybilne standardy: oryginalny EPP Standards Committee wersja 1.7 i IEEE 1284. Standardy te są wystarczająco do siebie zbliżone, aby nowo powstające urządzenia mogły pracować z obydwoma, lecz istniejące już urządzenia standardu EPP 1.7 mogą odmówić współpracy z portami IEEE 1284. Porty EPP były głównie używane pr;:ez IBM, natomiast inni producenci niezbyt się interesowali portami równoległymi, a/, do czasu wprowadzenia portu ECP przez firmy Microsoft i Hewlett-Packard. Ponieważ jednak port EPP jest zdefiniowany w standardzie IEEE 1284, posiada liczne sterowniki go obsługujące, włączając obsługę pod Windows NT. Enhanced Capabilieties Port (ECP). W 1992 roku Microsoft i Hewlett-Packard opracowali wspólnie inny typ szybkiego portu równoległego, zwanego Enhanced Capabilieties Port. Podobnie jak EPP, port ECP jest bardziej wydajny od standardowego portu równoległego, ale wymaga specjalnych układów logicznych. Od momentu stworzenia, standard ECP jest zawarty w standardzie IEEE 1284 podobnie jak EPP, jednak w przeciwieństwie do niego nie jest przeznaczony do obsługi standardowych urządzeń podłączanych do portu równoległego. Został zaprojektowany z przeznaczeniem do współpracy z wysokowydajnymi drukarkami. Ponadto tryb ECP wymaga użycia kanałów DMA, z którymi nie współpracują porty EPP. Jednak prawie wszystkie komputery osobiste posiadają nowe układy super I/O pracujące zarówno w trybie EPP, jak i ECP. Większość nowych komputerów jest wyposażona w porty ECP, które najczęściej mogą być zamienione przez BIOS na porty EPP lub na porty jednokierunkowe. Osobiście jednak polecam pracę w trybie ECP, który daje największą przepustowość.
Standard IEEE 1284 Standard ten, nazywany Standard Signaling Methodfor a Bidirectional Parallel Peripheral Interface for Personal Computers, został zatwierdzony w marcu 1994 roku. Określa fizyczną charakterystykę portu równoległego, uwzględniając tryby przekazywania danych oraz specyfikacje fizyczne i elektryczne. IEEE 1284 określa sygnały elektryczne dla portu równoległego pracującego w wielu trybach (m.in. w 4-bitowym). Nie wszystkich trybów pracy wymaga standard IEEE 1284, ale są czynione pewne kroki w celu dodania nowych trybów.
Standard IEEE 1284 określa sposoby komunikowania się komputera z urządzeniami zewnętrznymi, głównie drukarkami, i jest przeznaczony dla producentów wytwarzających urządzenia współpracujące z portami równoległymi (dyskami, kartami sieciowymi itp.). IEEE 1284 jest standardem sprzętowym i nie definiuje sposobu współpracy oprogramowania z portem. Stworzono odmianę tego standardu - IEEE 1284.3, który określa interfejs programowy współpracujący ze sprzętem zgodnym ze standardem IEEE 1284. Standard ten - stworzony z myślą o zniesieniu różnic między portami równoległymi -obejmuje również specyfikacje obsługi trybu EPP z poziomu BIOS-u komputera. Standard IEEE 1284 umożliwia znacznie wyższą prędkość transmisji danych między komputerem a drukarką lub między dwoma komputerami. Nie używa standardowego kabla do przyłączania drukarek, lecz wykorzystuje kable skrętkowe kategorii 5, pozwalające na transmisję danych z prędkością do 100 Mb/s. Określa również nowy port, nieznany większości użytkowników - port typu A, określany jako gniazdo DB25, oraz port typu B, nazywany gniazdem Centronics 36, i nowe gniazdo typu C instalowane w drukarkach Hewlett-Packarda. Te trzy typy gniazd zostały pokazane na rysunku 11.3. Rysunek 11.3. Gniazda standardu IEEE 128
Upgrade do portu EPP/ECP Jeśli będziesz teraz kupował komputer, to polecam taki, który posiada układ super I/O obsługujący zarówno porty EPP, jak i ECP. Gdybyś chciał przetestować port równoległy, zwłaszcza w celu określenia jego typu, polecam program narzędziowy Parallel. Sprawdza on port równoległy i podaje typ portu, adres I/O, przerwanie IRQ, nazwę BIOS-u oraz kilka innych dodatkowych informacji. Wyniki testu możesz zapisać w pliku. Parallel wykorzystuje bardzo zaawansowane metody do określenia typu portu i przerwania IRQ. Możesz uzyskać ten program od firmy Parallel Technologies (patrz „Dodatek A"). Jeśli posiadasz starszy komputer bez portów EPP i ECP oraz pragniesz rozbudować posiadany port, możesz kupić kartę z układem super 1/O obsługującym obydwa porty. Sprawdź w firmach Farpoin Communications i Byterunner Technologies; poniżej przedstawiam ich adresy internetowe: http://www.byterunner.com/ http://www.fapo.com/
Konfigurowanie portu równoległego Konfigurowanie portu równoległego nie jest tak skomplikowane jak konfigurowanie portu szeregowego. Oryginalne komputery IBM posiadają BIOS obsługujący trzy porty LPT; DOS również obsługuje te porty. W tabeli 11.7 znajdziesz standardowe adresy i przerwania portów równoległych. Tabela 11.7. Adresy i przerwania portu równoległego System
Adres
Przerwanie IRQ
8/16-bitISA LPT1
-
3BCh
IRQ7
8/16-bitISA LPT1
LPT2
378h
IRQ5
8/16-bitISA LPT2
LPT3
278h
bez przerwania
Ponieważ BIOS i DOS zawsze obsługiwały trzy porty równoległe, problemy ze starszymi komputerami są rzadkością. Jednak mogą się one pojawić w przypadku wykorzystywania dużej ilości kart ISA. Wprawdzie do drukowania nie jest konieczny port sterowany przerwaniem - programy tego nie potrzebują- ale niektóre zastosowania, jak drukowanie sieciowe, drukowanie w tle, wymagają przerwań. Również programy narzędziowe sterujące pracą szybkich drukarek laserowych często korzystają z przerwań. W przypadku tego typu programów, przy portach nie sterowanych przerwaniami, drukowanie może przebiegać bardzo wolno. Jedynym rozwiązaniem jest przypisanie portowi przerwania. DOS i Windows mogą obsłużyć do 128 portów równoległych. Aby skonfigurować port równoległy w komputerach z magistralą ISA, konieczne jest najczęściej ustawienie odpowiednich zworek i przełączników. Ze względu na różnorodność kart obecnych na rynku, w celu poprawnego skonfigurowania zajrzyj do oryginalnej dokumentacji danej karty.
Łączenie komputerów poprzez porty równoległe Projektanci oryginalnego IBM PC przewidywali, że port równoległy będzie wykorzystywany jedynie do komunikacji z drukarką. Z czasem wzrosła jednak liczba urządzeń, które także można podłączyć poprzez port równoległy. Należą do nich napędy taśmowe, karty sieciowe i napędy CD-ROM. Niektórzy producenci modemów opracowali nawet modemy zewnętrzne podłączane poprzez port równoległy w celu szybszej transmisji danych. Prawdopodobnie jednym z najpopularniejszych zastosowań dwukierunkowego portu równoległego jest transmisja danych pomiędzy dwoma komputerami, na przykład komputerem stacjonarnym a laptopem. Jeśli oba systemy używają portu EPP/ECP, mogą komunikować się z prędkością do 2 MB/s, rywalizując tym samym z prędkością niektórych twardych dysków. Taka możliwość doprowadziła do wzrostu liczby programów komunikacyjnych i zapełnienia tej niszy rynkowej. Jeśli interesuje cię taki program (oraz porty równoległe potrzebne do jego funkcjonowania), powinieneś zajrzeć do artykułów okresowo pojawiających się w czasopismach takich jak PC Magazine. Połączenie dwóch komputerów poprzez standardowe jednokierunkowe porty równoległe wymaga zastosowania specjalnego kabla, znanego pod nazwą null modem. Taki kabel jest sprzedawany z większością programów komunikacyjnych. Jeśli jednak musisz taki kabel zrobić samodzielnie, schemat połączeń znajdziesz w tabeli 11.8. Tabela 11.8. Schemat połączeń kabla Null Modem/Łap Link Przewód Opis sygnału Opis sygnału Przewód (złącze (złącze DBDB-25) 25) 2 Bit danych 0 < -Error 15 —> 3 Bit danych 1 < Select 13 —> 4 Bit danych 2 < Paper End 12 —> 56 Bit danych 3 < -Acknowledge 10 11 Bit danych 4 < Busy —> 15 -Error < Bit danych 0 2 —> 13 Select < Bit danych 1 3 —> 12 Paper End < Bit danych 2 4 —> 10 -Acknowledge < Bit danych 3 5 —> 11 Busy < Bit danych 4 6 —> 25 Ground < Ground 25 —> Choć kabel stworzony według schematu z tabeli 11.8 będzie działał także w przypadku połączenia dwóch maszyn z portami ECP/EPP, nie umożliwia jednak wykorzystania zaawansowanych prędkości transmisji takich portów.. Firma, która sprzedaje kable ECP/EPP służące do łączenia się z innymi komputerami ECP/EPP, to Parallel Technologies; można tam kupić także uniwersalne kable do połączenia dowolnych portów równoległych w celu osiągnięcia największej szybkości transmisji
Choć z większością programów komunikacyjnych są dostarczane odpowiednie kable, użytkownicy notebooków mogą poszukać adaptera, umożliwiającego wykorzystanie standardowego kabla drukarki. Dzięki temu cały zestaw jest lżejszy, gdyż nie trzeba nosić dodatkowych kabli. W większości przypadków takie adaptery podłącza się do końca kabla ze złączem Centronics, tworząc standardowy kabel DB-25. Takie adaptery są sprzedawane pod różnymi nazwami, ale najczęściej można się natknąć na kable typu null modem, adapter Laplink czy konwerter Laplink Windows 95 i nowsze wersje posiadają specjalny program, o nazwie Bezpośrednie połączenie kablowe, umożliwiający połączenie w sieć dwóch komputerów przy pomocy kabla null modem/LapLink. Aby dowiedzieć się, jak nawiązać bezpośrednie połączenie kablowe, zajrzyj do dokumentacji Windows. Firma Parallel Technologies podpisała z Microsoftem umowę na dostarczanie specjalnych kabli do bezpośredniego połączenia kablowego. Chodzi o specjalny rodzaj kabla, w którym zastosowano aktywną elektronikę w celu zapewnienia jak najszybszego wzajemnego połączenia.
Testowanie portu równoległego Testowanie portu równoległego jest podobne do testowania portu szeregowego. Procedury są takie same, tylko zamiast portu szeregowego wybierasz port równoległy. Podobne są również testy z wtyczką pętlową. Aby pomóc w samodzielnym wykonaniu takiej wtyczki, przedstawiam poniżej sposób połączenia odpowiednich pinów w męskiej wtyczce DB25P: 1z 13 10 z 16 2 zl5 11z 17 Program diagnostyczny pakietu Norton Utilities wymaga innego schematu połączeń 2 zl5 3 zl3 4 z 12 5 z 10 6zll
Nowe typy portów Ostatnio zostały opracowane dwie nowe architektury portów szeregowych: Universal Serial Bus (USB) i IEEE 1394. Są to bardzo szybkie porty, znacznie przewyższające możliwościami standardowe porty szeregowe i równoległe. Mogą nawet konkurować z interfejsem SCSI. Poza wydajnością, porty te niejako unifikują obecnie istniejące porty, tak że można do nich podłączyć dowolne urządzenie zewnętrzne
Porty szeregowe wysyłaj ą po jednym bicie danych, podczas gdy równoległe mogą przesyłać naraz 8, 16, a nawet więcej bitów, w zależności od ilości dostępnych przewodów. Zatem przy danej częstotliwości zegara porty równoległe są szybsze, ale w przypadku portów szeregowych łatwiej jest zwiększyć częstotliwość zegara. Połączenia za pomocą portów równoległych mają kilka istotnych wad, z których największe to nierównoległość (przesunięcia) i fluktuacja sygnału. To one ograniczają długość połączeń dla szybkich portów SCSI do mniej niż trzech metrów. Problem polega na tym, że chociaż dane są wysyłane jednocześnie po 8 czy 16 bitów i w tym samym czasie są odbierane, to opóźnienia propagacji powodują, że niektóre bity docierają szybciej niż inne. Im dłuższy kabel, tym różnica między pierwszym a ostatnim bitem jest większa. To zjawisko (ang. signal skew) powoduje ograniczenia prędkości transmisji i długości kabla. Fluktuacje to krótkie, nieznaczne zmiany wartości napięcia poniżej i powyżej wartości nominalnej. W przypadku portu szeregowego nie jest istotne, kiedy dany bit dotrze, tak więc istnieje możliwość znacznego powiększenia częstotliwości zegara. Przy wyższej częstotliwości zegara sygnały przenoszone między portami równoległymi zakłócają się wzajemnie. Natomiast w przypadku transmisji szeregowej przenikanie sygnałów między przewodami, jak również zakłócenia są mało znaczące. Kable równoległe są bardzo drogie. Oprócz dużej liczby przewodów niezbędnej do równoległego przenoszenia wielu bitów danych, kable takie muszą być specjalnie wykonane ze względu na zakłócenia i przenikanie sygnałów. Jest to jeden z powodów, dla którego zewnętrzne kable SCSI są takie drogie. W przeciwieństwie do nich, kable szeregowe są bardzo tanie, co wynika z małej liczby przewodów i mniejszych wymagań co do ekranowania, nawet przy dużych prędkościach przesyłu. Z powyższych powodów oraz ze względu na zapotrzebowanie na nowe zewnętrzne interfejsy Plug and Play i chęć zmniejszenia ilości portów w przenośnych komputerach, stworzono nowe, szybkie magistrale szeregowe. Oba standardy (USB i 1394) są dostępne zarówno dla komputerów stacjonarnych, jak i przenośnych.
USB (Universal Serial Bus) USB to standard zewnętrznej magistrali opracowany przez wiodących producentów sprzętu komputerowego i telekomunikacyjnego, do których należą Compaą, DEC, IBM, Intel, Microsoft, NEC oraz Northern Telecom. W standardzie USB urządzenia zewnętrzne zostaną naprawdę przeniesione na zewnątrz komputera. USB wyeliminuje potrzebę instalowania kart w dedykowanych złączach na płycie głównej oraz ponownego konfigurowania systemu, oszczędzając cenne zasoby, takie jak przerwania IRQ. Komputery osobiste wyposażone w USB umożliwią automatyczne skonfigurowanie urządzeń zewnętrznych w momencie ich fizycznego podłączenia, bez konieczności ponownego uruchamiania systemu czy przeprowadzania instalacji. USB umożliwi podłączenie do jednego komputera do 127 urządzeń takich jak monitory, klawiatury czy koncentratory (dla następnych podłączeń). Głównym twórcą standardu jest Intel i wszystkie jego nowe chipsety, począwszy od składnika PIIX3 South Bridge używanego w chipsecie 430HX Triton II, standardowo obsługują USB. Przy opracowywaniu USB współpracowało z Intelem sześć innych firm, wymienionych wcześniej. Wszystkie firmy razem ustanowiły tzw. USB Implementers Forum, zajmujące się rozwojem, obsługą oraz promocją architektury USB
USB to szeregowy interfejs działający z prędkością 12 Mb/s (1,5 MB/s), wykorzystujący do połączeń prosty, czteroprzewodowy kabel. Magistrala obsługuje do 127 urządzeń i korzysta z topologii wielopoziomowej gwiazdy opartej na koncentratorach, którymi mogą być komputer, dowolne urządzenie USB lub nawet specjalny, samodzielny koncentrator. Przykładowa konfiguracja USB jest pokazana na rysunku 11.4. Dla mało wymagających urządzeń zewnętrznych, takich jak urządzenia wskazujące i klawiatury, USB posiada także wolniejszy podkanał, przekazujący dane z prędkością 1,5 Mb/s. Maksymalna długość kabla pomiędzy dwoma urządzeniami pracującymi z pełną szybkością (12 Mb/s) lub pomiędzy urządzeniem a koncentratorem nie może przekraczać pięciu metrów przy użyciu ekranowanej skrętki o średnicy 20. Maksymalna długość kabla dla urządzeń o małej szybkości (1,5 Mb/s), używających zwykłej pary przewodów, nie może przekraczać trzech metrów. Te ograniczenia odległości ulegają zmianie w zależności od zastosowanych przewodów, tak jak pokazuje tabela 11.9 Tabela 11.9. Maksymalna długość kabla w zależności od średnicy Średnica
Opór [w omach/m
Długość (maksymalna)
28
0,232
0,81 m
26
0,145
1,31 m
24
0,091
2,08 m
22
0,057
3,33 m
20
0,036
5,00 m
Choć USB nie jest tak szybkie jak FireWire czy SCSI, jest i tak co najmniej wystarczające dla tych rodzajów urządzeń zewnętrznych, dla których zostało zaprojektowane. Sama wtyczka USB jest mała i - w odróżnieniu do typowego kabla szeregowego lub równoległego - nie posiada żadnych wkrętów ani zaczepów. Wtyczka USB (pokazana na rysunku 11.5) zatrzaskuje się w gnieździe kontrolera w komputerze. W tabeli 11.10 opisano funkcje poszczególnych przewodów kabla i złącza USB. Tabela 11.10. Funkcje przewodów USB Przewód Nazwa sygnału
Komentarz
1
vcc
Przewód zasilający
2
-Data
3
+ Data
4
Ground
Przewód uziemiający
Rysunek 11.4. Do komputera można podłączyć wiele koncentratorów w celu obslużenia różnorodnych urządzeń,podłączonych do tego z koncentratorów, do którego takie podłączenie jest najwygodniejsze Rysunek 11.5. Wgłębienia we wtyczce USB i przytrzymujące sprężynki w złączu zapewniają solidne trzymanie wtyczki w gnieździe
USB spełnia wymagania specyfikacji Pług and Play firmy Intel, a ponadto umożliwia tzw. podłączanie na gorąco, co oznacza, że urządzenia mogą być podłączane dynamicznie, bez wyłączania komputera czy ponownego uruchamiania systemu. Wystarczy podłączyć urządzenie, a kontroler USB w komputerze wykryje je, automatycznie wyznaczy i zajmie odpowiednie zasoby oraz zainstaluje wymagane sterowniki. Microsoft posiada sterowniki USB, które dołącza do istniejących wersji Windows 95 i NT. Zwróć uwagę, że obsługę USB oferuje dopiero Windows w wersji 95b lub późniejszej; w oryginalnych Windows 95 i 95 a nie ma wymaganych sterowników USB. Obsługa USB musi być zawarta także w BlOS-ie; taki BIOS z pewnością znajdzie się na wszystkich płytach posiadających kontrolery USB. Do płyt już będących w użyciu także można dodać USB. Do urządzeń USB należą modemy, telefony, joysticki, klawiatury oraz urządzenia wskazujące, takie jak myszy i trackballe.
Jedną z ciekawych własności USB jest to, że podłączane urządzenia będą zasilane poprzez magistralę USB. Funkcje PnP urządzeń USB umożliwiają zapytanie każdego urządzenia o ilość potrzebnej mocy i wyświetlenie ostrzeżenia, jeśli pobór mocy będzie przekraczał możliwości systemu. Będzie to szczególnie istotne w przypadku systemów przenośnych, w których pojemność baterii może znacznie ograniczać ilość urządzeń podłączanych do systemu. Kolejną zaletą specyfikacji USB jest samoidentyfikacja urządzenia, właściwość, która powinna znacznie ułatwić instalację. To oznacza, że nie trzeba będzie przypisywać urządzeniom identyfikatorów, gdyż USB zajmie się tym automatycznie. Oprócz tego, urządzenia USB mogą być na bieżąco włączane lub wyłączane, co oznacza, że nie trzeba wyłączać komputera ani przeładowywać systemu za każdym razem, gdy chcesz podłączyć lub odłączyć jakieś urządzenie. W chwili gdy powstaje ta książka, nadal trudno jest znaleźć urządzenia zgodne ze specyfikacją USB, choć większość nowych płyt głównych posiada już odpowiednie kontrolery. Przy zakupie urządzeń USB należy pamiętać o tym, aby posiadany system operacyjny oferował obsługę USB. Choć nie potrafi tego oryginalny Windows 95 ani Windows NT 4.0, późniejsze wersje OSR-2 (OEM Service Release 2) Windows 95 (zwane także 95b) już to potrafią. Windows 98 i Windows NT 5.0 w pełni obsługują USB. Ponieważ standard USB wydaje się bardzo obiecujący, z pewnością w ciągu najbliższych lat stanie się jedną z najważniejszych technologii magistral. Jedną z najważniejszych zalet interfejsów w rodzaju USB jest to, że USB wymaga tylko pojedynczego przerwania IRQ. To oznacza, że możesz podłączyć do 127 urządzeń, które nie zajmą żadnego dodatkowego przerwania, tak jak byłoby w przypadku, gdyby każde z nich było podłączone do osobnego interfejsu. W przypadku nowoczesnych komputerów, cierpiących na chroniczny brak wolnych przerwań, to ogromna zaleta, która powinna zaowocować szybkim wykorzystaniem tego interfejsu do podłączenia większości wolniejszych urządzeń.
FireWire (IEEE 1394) FireWire to stosunkowo nowa technologia magistrali; jest rezultatem wysokich wymagań przy przekazywaniu danych w dzisiejszych urządzeniach multimedialnych. Jest ekstremalnie szybka, osiągając niewyobrażalne prędkości przesyłu danych do 400 Mb/s, a projektuje się wykorzystanie jeszcze wyższych szybkości. IEEE 1394 (taka jest oficjalna nazwa tej specyfikacji) została opublikowana przez IEEE Standards Board pod koniec 1995 roku. Standard IEEE 1394 obecnie opiera się na trzech różnych prędkościach sygnałów: 100, 200 i 400 Mb/s (12,5; 25 i 50 MB/s), zaś w opracowaniu jest wersja gigabit/s! Większość kart rozszerzeń obsługuje prędkość 200 Mb/s, mimo że większość obecnych urządzeń działa z prędkością 100 Mb/s. Do pojedynczej karty kontrolera IEEE 1394 można podłączyć do 63 urządzeń połączonych w łańcuch. Kable IEEE 1394 wykorzystują złącza podobne do zastosowanych w Nintendo GameBoy i składają się z sześciu żył; cztery z nich służą do transmisji danych, zaś dwie - do zasilania. Połączenie z płytą główną odbywa się albo poprzez dedykowany interfejs IEEE 1394, albo poprzez kartę PCI. Ta magistrala została utworzona na podstawie magistrali FireWire opracowanej przez firmy Apple i Texas Instruments; stanowi także część nowego standardu Serial SCSI, który zostanie omówiony w rozdziale 15. „Interfejsy dysków twardych", w podrozdziale SCSI-3. Standard 1394 wykorzystuje sześciożyłowy kabel z dwoma osobnymi parami linii sygnału zegarowego i danych oraz z dwoma liniami zasilania. Podobnie jak USB, spełnia wymagania PnP, łącznie z „hol plugging" (włączanie i wyłączanie urządzeń podczas pracy komputera). W przeciwieństwie do złożonego równoległego interfejsu SCSI, szeregowy nie wymaga terminatorów, a podłączone urządzenia mogą pobierać do 1,5 A bezpośrednio z magistrali. Dodatkowo charakteryzują się taką samą, a nawet większą wydajnością w porównaniu do Ultra-Wide SCSI, przy tańszych i prostszych połączeniach
Standard IEEE 1394 pracuje w topologii drzewa z 63 węzłami. Do każdego węzła można podłączyć 16 urządzeń. Gdyby było to za mało, można podłączyć do 1023 tzw. bridged busses (magistral mostkowych), które mogą łączyć 64000 węzłów. Dodatkowo na tej samej magistrali mogą pracować urządzenia o różnej prędkości przesyłania danych, podobnie jak dzieje się w przypadku interfejsu SCSI. Urządzenia, które będzie można podłączać do portu 1394, to praktycznie wszystkie urządzenia wykorzystujące interfejs SCSI, czyli twarde dyski, dyski optyczne, stacje dyskietek, napędy CD-ROM, napędy DVD (Digital Video Disc) oraz cyfrowe aparaty fotograficzne, streamery i inne szybkie urządzenia z wbudowanym interfejsem 1394. Można oczekiwać, że ten interfejs znajdzie zastosowanie zarówno w komputerach stacjonarnych, jak i przenośnych, zastępując inne zewnętrzne interfejsy jak SCSI. Na liście firm produkujących urządzenia standardu IEEE 1394 znajduje się ponad 200 firm zrzeszonych w 1394 Trade Association. Dodatkowe informacje o magistrali 1394 lub o 1394 Trade Association znajdziesz w Internecie pod adresem: http://www.firewire. org Dostępne są już chipsety i karty PCI dla magistrali 1394. Microsoft opracował sterowniki obsługujące 1394 w Windows 95/98 i Windows NT. W czasie powstawania tej książki urządzenia zgodne ze standardem IEEE 1394 ograniczają się głównie do kamer wideo i magnetowidów z możliwością zastosowania cyfrowego wideo (DV - digital video). Jedną z pierwszych firm produkujących urządzenia tego typu była Sony, choć jej urządzenia korzystały z unikatowych, czterożyłowych przewodów wymagających specjalnego adaptera w celu podłączenia do kart IEEE 1394. Produkty DV są produkowane także przez firmy Panasonic i Matsushita, zaś przyszłe zastosowania IEEE 1394 powinny objąć także urządzenia DV do prowadzenia konferencji, przesyłania danych audio i wideo poprzez satelitę, syntetyzatory audio, DVD i inne szybkie napędy dysków. Z powodu obecnego nakierowania urządzeń IEEE 1394 na cyfrowe wideo, większość kart PC oferowanych przez firmy Adaptec, FAST Multimedia, Matrox i innych umożliwia przechwytywanie i edycję wideo. Jeśli stać cię na wydanie ponad tysiąca dolarów na sprzęt DV, dzięki takim kartom możesz uzupełnić możliwości swojego komputera o edycję wideo i dubbing. Oczywiście, będziesz musiał w jakiś sposób podłączyć te urządzenia do komputera, co w przypadku obecnych płyt głównych wciąż jeszcze jest problemem. Na szczęście, zarówno Adaptec, jak i Texas Instruments oferują karty PCI obsługujące IEEE 1394. IEEE 1394 ma na celu zapewnienie nieznanych dotychczas możliwości multimedialnych obecnym i przyszłym użytkownikom komputerów osobistych. Dzisiejsze urządzenia zewnętrzne - szczególnie sprzęt DV - są drogie, ale jak w przypadku wielu rozwijających się technologii, ceny z pewnością spadną, otwierając dostęp do nowych zastosowań komputerów osobistych w pracy i w domu. Ogromna liczba osób będzie miała możliwość wykorzystania zaawansowanej edycji audio i wideo. Jeśli przewidujesz, że w przyszłości będziesz wykorzystywał multimedia w komputerze, posiadanie interfejsu IEEE 1394 staje się koniecznością
Modemy asynchroniczne Dla komputera, który z jakichś powodów nie jest podłączony do sieci, modem stał się praktycznie standardowym elementem wyposażenia. Dla wielu domowych użytkowników możliwość podłączenia się do Internetu jest podstawowym powodem posiadania komputera.
Czy to do prowadzenia interesów, czy dla rozrywki lub po prostu utrzymywania kontaktów z przyjaciółmi bądź rodziną, połączenie modemowe sprawia, że odizolowany komputer staje się częścią globalnej sieci komputerowej. Słowo modem (od MOdulator/DEModulator) w zasadzie odnosi się do urządzenia zamieniającego cyfrowe dane używane w komputerze na sygnały analogowe umożliwiające komunikację poprzez linię telefoniczną oraz zamieniającego sygnały analogowe z powrotem na dane cyfrowe w miejscu przeznaczenia. Typowy modem w komputerze osobistym jest urządzeniem asynchronicznym, tj. przesyła dane w postaci ciągu małych pakietów. System na drugim końcu linii odbiera te pakiety i składa je w dane, które może potem wykorzystać. Modemy asynchroniczne transmitują każdy bajt w postaci osobnego pakietu. Jeden bajt odpowiada ośmiu bitom, co przy użyciu standardowego kodu ASCII w zupełności wystarcza do przesłania pojedynczego znaku alfanumerycznego. Aby modem mógł przesyłać dane asynchronicznie, musi w jakiś sposób poinformować modem odbierający o początku i końcu pakietu. W tym celu na początku każdego pakietu jest umieszczany tzw. bit startu, zaś na końcu pakietu - bit stopu, czyli do przesłania pojedynczego bajta używa się dziesięciu bitów (rysunek 11.6). Z tego powodu komunikacja asynchroniczna jest czasem nazywana komunikacją typu start-stop. Taka komunikacja stanowi przeciwieństwo komunikacji synchronicznej, w której ze stałą szybkością jest przesyłany ciągły strumień danych Rysunek 11.6. W transmisji asynchroniczne] każdy bajt danych jest ujmowany pomiędzy bit stanu na początku i bit stopu na końcu, podczas gdy w transmisji synchronicznej jest przekazywany ciągły strumień danych
W nowoczesnej, szybkiej komunikacji modemowej zwykle nie przesyła się bitu startu ani bitu stopu poprzez linię telefoniczną. Te bity są usuwane w wyniku algorytmów kompresji stosowanych przez modem. Jednak nadal stanowią część pakietów danych generowanych przez oprogramowanie komunikacyjne w komputerze i istnieją aż do momentu dotarcia do układów modemu Użycie pojedynczego bitu startu jest wymagane we wszystkich formach komunikacji asynchronicznej, jednak niektóre protokoły używają więcej niż jednego bitu stopu. Aby umożliwić dostosowanie do różnych protokołów, oprogramowanie zwykle umożliwia modyfikowanie ramki używanej do przekazywania poszczególnych bajtów. Standardowy format używany do opisu ramki komunikacji asynchronicznej to bity parzystości, bity danych, bity stopu. Obecnie właściwie wszystkie połączenia asynchroniczne używają formatu N-8-1 (bez parzystości, osiem bitów danych, l bit stopu). Znaczenie poszczególnych parametrów i ich występujące odmiany opisano poniżej:
* Parzystość. Zanim standardowym wyposażeniem modemów stały się protokoły korekcji błędów, w celu zapewnienia prostego mechanizmu wykrywania błędów, na poziomie oprogramowania używano kontroli parzystości. Obecnie już się prawie tego nie używa, więc wartość parametru jest prawie zawsze ustawiona na none (brak). Inne możliwe wartości, na jakie możesz się natknąć w protokołach komunikacyjnych, to odd (nieparzyste), even (parzyste), mark lub space. * Bity danych. Ten parametr wskazuje, ile bitów danych występuje w części pakietu zawierającej dane (czyli po odrzuceniu bitów startu i stopu). W komputerach PC zwykle stosuje się 8 bitów danych, jednak w niektórych komputerach można natknąć się na 7-bitowe bajty, zaś inne korzystają z jeszcze innych długości bajta. Oprogramowanie komunikacyjne pozostawia tę opcję w celu zabezpieczenia systemu przed myleniem bitu stopu z bitami danych. * Bity stopu. Ten parametr określa, ile bitów stopu jest dodawanych do każdego przesyłanego bajta. W komputerach PC typowo stosuje się jeden bit stopu, jednak inne protokoły komunikacyjne mogą wymagać 1,5 bitu lub 2 bitów stopu. W większości przypadków nigdy nie będziesz musiał samodzielnie modyfikować tych parametrów, ale odpowiednie opcje są prawie zawsze dostępne. Na przykład w Windows 9x, gdy otworzysz aplikację Modemy w Panelu sterowania i zajrzysz na zakładkę Polączenie arkusza właściwości swojego modemu, ujrzysz pola umożliwiające dobranie ilości bitów danych, parzystości oraz ilości bitów stopu (rysunek 11.7 Rysunek 11.7. Panel sterowania w Windows 9x umożliwia dostosowanie formatu ramki komunikacji asynchronicznej
Ponieważ słowo modem stało się popularnym terminem nawet wśród niedoświadczonych użytkowników, często jest używane w stosunku do urządzeń, które, technicznie rzecz biorąc, wcale modemami nie są. W dalszej części rozdziału poznasz modemy ISDN oraz modemy kablowe, z których żadne nie konwertują informacji cyfrowej na sygnały analogowe. Jednak, ponieważ te urządzenia zwykle przypominają standardowe modemy i służą połączeniu komputera z Internetem lub innymi sieciami, popularnie nazywa sieje modemami
Standardy modemów Aby dwa modemy mogły się ze sobą porozumieć, muszą korzystać z tego samego protokołu. Protokół to po prostu specyfikacja określająca sposób komunikowania się ze sobą dwóch jednostek. Podobnie jak ludzie muszą się posługiwać tym samym językiem i tym samym słownikiem, aby się porozumieć, również dwa komputery lub dwa modemy muszą używać wspólnego protokołu. W przypadku modemów, protokół wyznacza naturę sygnałów analogowych, na jakie urządzenie zamienia dane cyfrowe stosowane w komputerze. Przez lata powstało wiele standardów komunikacji modemowej, z których większość pojawiła się stosunkowo niezależnie, lecz została zaakceptowana przez prawie wszystkich producentów modemów. W miarę rozwoju sprzętu, komunikacja modemowa staje się coraz szybsza i wciąż powstają nowe standardy, pozwalające na wykorzystanie nowych możliwości sprzętu. Standardy protokołów komunikacji modemowej zostały ustalone między innymi przez Bell Labs i CCITT (franc. Comite Consultatif International Telephoniąue et Telegraphigue, co można też przetłumaczyć na angielski: Consultative Committee on International Telephone and Telegraph). Na początku lat dziewięćdziesiątych CCITT zmieniła nazwę na ITU (International Telecommunication Union), ale protokoły pozostały pod starą nazwą. Nowo powstające protokoły określane są mianem standardów ITU-T. Protokół to metoda określająca sposób, w jaki dwa różne urządzenia komunikują się ze sobą. Bell Labs nie określa już nowych standardów komunikacji modemowej, chociaż nadal jest w użyciu kilka ich starszych standardów. Większość modemów wyprodukowanych w ciągu ostatnich pięciu lat spełnia wymagania standardu CCITT. ITU to międzynarodowa organizacja ekspertów technicznych zajmujących się określaniemiędzynarodowych standardów komunikacyjnych. Pracują oni pod patronatem ONZ, a wśród ich członków są przedstawiciele producentów modemów, operatorów telekomunikacyjnych (takich jak AT&T) i rządów. Standardy i protokoły są określane w odniesieniu do różnych aspektów, tak więc modem może pracować zgodnie z kilkoma różnymi standardami w zależności od rozpatrywanych właściwości i możliwości. Standardy te możemy podzielić na trzy główne grupy: * Standardy modulacji Bell 103 Bell212A CCITT V.21 CCITT V.22bis CCITT V.29 CCITT V.32 CCITT V.32bis CCITT V.34 ITU V.90 *
Standardy korekcji błędów
CCITT V.42 * Standardy kompresji danych V.42bis
Również inne firmy (oprócz Bell Labs i ITU) tworzyły swoje standardy. Dokładne specyfikacje są ogólnie dostępne, tak aby producenci modemów mogli z nich korzystać. Poniżej przedstawiam kilka najbardziej popularnych standardów: *
Modulacja
HST PEP DIS X2 K56flex *
Korekcja błędów
MNP 1-4 Hayes V-series *
Kompresja danych
MNP 5 CSP Aby zapewnić kompatybilność wstecz, producenci pozostawiają możliwość rozpoznawania starszych trybów komunikacji. Z tego względu lista protokołów, które są obsługiwane przez dzisiejsze modemy, jest długa. Jednak interesujące i ważne są jedynie najnowsze - gdyż to one decydują o możliwych transferach modemu. Prawie wszystkie współczesne modemy określane są jako kompatybilne ze standardem Hayesa (Hayes-compatible) - określenie to niewiele nam mówi. To tak, jakby powiedzieć w odniesieniu do komputera: kompatybilny z IBM. Nie odnosi się to do żadnego protokołu komunikacyjnego, lecz do komend niezbędnych do sterowania modemem. Cechą charakterystyczną tych komend jest to, że wszystkie rozpoczynają się od ciągu AT. Dla przykładu komenda ATDT wraz z numerem (AT od Attention - uwaga, DT od Dial Tonę przyp. tłum.) nakazuje modemowi wybrać numer przy użyciu systemu tonowego. Programy komunikacyjne najczęściej komunikują się z modemem w tle, informując użytkownika jedynie o efektach komunikacji. Jednak niektóre programy terminalowe, komunikujące się bezpośrednio z portami, umożliwiają bezpośredni dostęp do modemu. Dostęp ten umożliwia także komenda ECHO systemu DOS. Gdy do portu COM2 naszego komputera jest podłączony modem, możemy się z nim komunikować w następujący sposób: ECHO ATH1 > COM2 Komenda ta prześle modemowi polecenie ATH1, każąc mu „podnieść słuchawkę". Głośnik modemowy (gdy w takowy jest on wyposażony) powinien wydać charakterystyczny odgłos jak po podniesieniu słuchawki. Aby się rozłączyć, należy wydać inne polecenie: ECHO ATHO > COM2 Zgodność ze standardem Hayes jest w zasadzie zagwarantowana w przypadku każdego produkowanego modemu. Zestaw komend może się różnić, nawet w dość znacznym stopniu - szczególnie gdy chodzi o specjalne możliwości danych modemów. Niektóre modemy można zmusić do wyświetlenia listy komend. Na przykład urządzenia firmy U.S. Robotics wyświetlają rozumiane przez siebie polecenia, po wydaniu im rozkazu: AT$.
Body a bity na sekundę Prędkości transmisji wyrażane w bodach i w bitach na sekundę często są ze sobą mylone. Pierwsza odnosi się do ilości zmian sygnału pomiędzy dwoma urządzeniami w ciągu jednej sekundy, np. jeżeli sygnał między dwoma modemami zmienia częstotliwość lub fazę 300 razy na sekundę, oznacza to, iż komunikują się one z prędkością 300 bodów. Czasami pojedyncza zmiana modulacji służy do przeniesienia jednego bitu informacji. Wtedy 300 bodów równa się 300 bitom na sekundę (b/s). Jeżeli modem potrafi przekazać dwa bity w jednej zmianie sygnału, to komunikacja odbywa się z prędkością 600 b/s i 300 bodów. Większość modemów przenosi kilka bitów na jeden bod, tak więc prędkość wyrażona w bodach jest znacznie mniejsza niż w bitach na sekundę.
Standardy modulacji Modulacja to metoda przesyłania sygnałów elektronicznych wykorzystywana przez modemy. Muszą one korzystać z tej samej metody, aby się porozumieć. * Modulacja częstotliwości (Freąuency Modulation, znana również jako FSK -Frequencyshift keying). Metoda modulacji wykorzystuje zmiany częstotliwościsygnału do przesyłania informacji. * Modulacja fazy (PSK - Phase-shift keying). Metoda modulacji polegająca nazmianie fazy sygnału przy stałej częstotliwości. * Modulacja kwadraturowa (Quadrature-amplitudę modulation - QAM). Metodałącząca zmiany fazy i amplitudy sygnału; cechują ją zdolność do przeniesieniaznacznie większej ilości informacji niż pozostałe metody W tabeli 11.11 przedstawiono spis najpopularniejszych standardów transmisji modemowej. Pełen dupleks oznacza możliwość transmisji danych w obie strony z tą samą - pełną -prędkością. Półdupleks oznacza możliwość transmisji w obu kierunkach, jednak nie w tej samej chwili. Najpierw jedna strona przekazuje swoje informacje, potem druga Tabela 11.11. Standardy modulacji modemowej i prędkości transmisji Standard
Maksymalna prędkość Tryb dupleks transmisji (bity na sekundę)
Bell 103
300
Pełny
CCITTY.21 Bell212A
300 1200
Pełny Pełny
ITU V.22 ITU V.22bis ITU V.23
1200 2400 1200/75
Pół Pełny Pseudopełny
ITU V.29 ITU V.32 ITU V.32bis
9600 9600 14400
Pół Pełny Pełny
ITU V.32fast
28800
Pełny
ITU V.34 ITU V.90
28800 56000
Pełny Pełny
Bell 103 To amerykański i kanadyjski standard modulacji; prędkość transmisji 300 b/s. Wykorzystuje modulację FSK przy prędkości 300 bodów, przenosi l bit na bod. Większość szybkich modemów potrafi korzystać z tego protokołu, mimo że jest już przestarzały.
Bell 212A To amerykański i kanadyjski standard modulacji; prędkość transmisji 1200 b/s. Wykorzystuje różnicowe kluczowanie fazy (DPSK - differential phase-shift keying) przy prędkości 600 bodów i przenosi 2 bity na bod.
V.21 Jest to międzynarodowy standard transmisji danych z prędkością 300 b/s, zbliżony do standardu Bell 103. Ze względu na wykorzystywane częstotliwości, modemy standardu Bell 103 nie są kompatybilne z modemami V.21. Standard ten jest przede wszystkim używany poza Stanami Zjednoczonymi.
V.22 Jest to międzynarodowy standard transmisji danych z prędkością 1200 b/s. Jest zbliżony do standardu Bell 212A, lecz nie jest z nim kompatybilny, zwłaszcza w zakresie nawiązywania połączenia. Standard ten jest przede wszystkim używany poza Stanami Zjednoczonymi.
V.22bis Jest to międzynarodowy standard transmisji z prędkością 2400 b/s, wykorzystywany zarówno w Stanach Zjednoczonych, jak i poza nimi. Bis pochodzi od łacińskiego drugi, co oznacza ulepszenie lub rozbudowę standardu V,22. V.22bis wykorzystuje modulację QAM przy 600 bodach i przesyła 4 bity na bod.
V.23 Jest to standard transmisji o różnej prędkości przesyłu danych w zależności od kierunku: dla jednego jest to 1200 b/s, a dla drugiego - 75 b/s. Dane są wprawdzie przesyłane w obydwu kierunkach, ale nie z maksymalną prędkością i dlatego modemy tego standardu określa się mianem pseudopełnego dupleksu. Standard ten, wykorzystywany głównie w Europie, został opracowany, aby obniżyć koszty modemów 1200 b/s, które na początku lat 80. były drogie.
V.29 Jest to standard transmisji danych z prędkością 9600 b/s, definiujący metodę półdupleksu (transmisja jednokierunkowa). Jest głównie używany w faksach III grupy, rzadko w modemach. Ponieważ jest to metoda półdupleksu, była o wiele łatwiejsza do wdrożenia niż szybka transmisja w pełnym dupleksie. Dla łączności modemowej standard ten nie został w pełni określony, tak więc modemy tego standardu różnych producentów rzadko mogą się ze sobą porozumieć. Nie dotyczy to oczywiście faksów
V.32 Jest to standard transmisji danych w pełnym dupleksie (dwukierunkowo) z prędkością 9600 b/s. Określa również korekcję błędów (forward error-correctiori) i negocjowanie standardów, wykorzystuje modulację TCQAM (trellis-coded ąuadrature amplitudę modulation) przy 2400 bodach i przesyła 4 bity na bod.
Trellis coding to specjalna metoda korekcji błędów (forward error-correction) tworząca dodatkowy bit (bit kontrolny) dla każdej 4-bitowej paczki danych. Jest on wykorzystywany po stronie odbiorczej do przeprowadzania korekcji błędów „w locie". Metoda ta zwiększa również odporność na zakłócenia. Dawniej, ze względu na złożoność wykorzystywanej technologii, standard ten był kosztowny. Ponieważ strumień danych wysyłany w jedną stronę z prędkością 9600 b/s wykorzystuje prawie całe pasmo linii telefonicznej, w modemach standardu V.32 zastosowano tłumienie echa, co oznacza, że modem wstrzymuje własny sygnał i odbiera tylko sygnał z drugiego modemu. Dopiero po opracowaniu tanich układów spadły ceny modemów V.32 i przez pewien czas był to obowiązujący standard transmisji 9600 b/s
V.32bis Jest to rozszerzenie standardu V.32 do prędkości 14,4 kb, z wykorzystaniem modulacji TCQAM (2400 bodów, 6 bitów na bod). Zastosowanie metody trellis coding polepszyło jakość połączenia. Standard ten pracuje w pełnym dupleksie z możliwością powrotu do V.32 w przypadku pogorszenia jakości łącza.
V.32fast Standard ten jest rozszerzeniem standardów V.32 i V.32bis. Wprowadził prędkość transmisji 28,8 kb/s. Jest również nazywany V.FC (Fast Class). Standard ten został zastąpiony przez V.34.
V.34 Standard ten zastąpił dotychczasowe standardy o prędkości transmisji 28,8 kb/s. Ostatnie poprawki do standardu wprowadziły możliwość pracy z prędkościami 31,2 i 33,6 kb/s - nowsze modemy już z nimi pracują. Modemy V.34 wykorzystujące zaawansowane procesory sygnału cyfrowego (DSPs - Digital Signal Processors) mogą zostać przystosowane do pracy z prędkością 33,6 kb/s przez zainstalowanie w modemie nowego oprogramowania. Należy ściągnąć od producenta uaktualnienie pamięci ROM modemu i korzystając z dostarczonego programu uaktualnić istniejący kod. Standard V.34 zapewnia najwyższą z możliwych prędkość transmisji dla połączeń analogowych. Można powiedzieć, że zmierzamy w kierunku telefonii cyfrowej, tak więc rozwój transmisji analogowej dobiega końca i obecnie będą powstawać tylko modemy cyfrowe.
V.90 Jest to standard, który wprowadził ład w dziedzinie modemów 56 kb/s. Do czasu jego wprowadzenia, istniały dwa konkurujące ze sobą rozwiązania. Jednym był X2 firmy U.S. Robotics (3Com), a drugim K56flex Rockwella. Więcej szczegółów można znaleźć w podrozdziale „Modemy 56 kb"
Protokoły korekcji błędów Korekcja błędów dotyczy zdolności modemów do identyfikowania błędów podczas transmisji i powtórnego automatycznego przesyłania tych samych danych. Aby korekcja błędów działała, oba modemy muszą pracować w tym samym standardzie korekcji. Tak się też dzieje w przypadku większości modemów.
MNP 1-4 Jest to standard firmowany przez firmę Microcom (MNP - Microcom Networking Protocol), zapewniający najprostszą korekcję błędów. Będzie on szczegółowo omówiony w podrozdziale „Standardy firmowe"
V.42 Jest to protokół korekcji błędów kompatybilny ze standardem MNP 4, tak więc wszystkie modemy zgodne z MNP 4 mogą ustalić kontrolę korekcji błędów z modemami V.42. Standard ten wykorzystuje protokół LAPM (Link Access Procedurę for Modems). Protokół ten, podobnie jak MNP, automatycznie powtarza przesyłanie danych uszkodzonych podczas transmisji, dzięki temu do drugiego modemu dochodzą tylko właściwe dane. V.42 uważany jest za lepszy od MNP 4 ze względu na szybszy o 20 % transfer danych wynikający z zastosowania inteligentniejszych algorytmów.
Standardy kompresji danych Kompresja danych odnosi się do wbudowanej w modem zdolności do kompresowania danych przed ich wysłaniem, co ma duży wpływ na czas trwania transmisji i jej koszt (jest to istotne zwłaszcza przy odległych połączeniach). W zależności od rodzaju danych, mogą być one skompresowane nawet czterokrotnie, tyleż samo razy zwiększając efektywną prędkość modemu. Np. dla modemu 14,4 dałoby to prędkość transmisji 57,6 kb/s, a dla modemu 28,8 115,2 kb/s.
MNP 5 Jest to kolejny protokół firmy Microcom, tym razem dotyczący kompresji danych. Więcej powiemy o nim w podrozdziale „Standardy firmowe".
V.42bis Jest to standard kompresji danych zbliżony do MNP 5, który zapewnia o ok. 35 procent lepszą kompresję. Modemy V.42 nie są kompatybilne z modemami MNP 5, ale prawie wszystkie zawierają możliwości tych ostatnich. Protokół ten zwiększa nawet czterokrotnie przepustowość w zależności od zastosowanej metody kompresji. Prowadzi to czasami do lekko przesadzonej reklamy modemów, np. mówi się, że modem V.42bis 2400 b/s pracuje z prędkością 9600 b/s -jest to możliwe tylko przy transmisji słabo upakowanych zbiorów tekstowych. Na podobnej zasadzie producenci modemów V.42bis 9600 b/s twierdzą, że dzięki kompresji mogą przenosić dane z prędkością do 38,4 kb/s. Bądź świadom, co się za tym kryje. Standard V.42bis jest lepszy od MNP 5, ponieważ najpierw analizuje dane, a następnie określa, czy kompresja jest potrzebna. Wiele danych może być już skompresowanych, a dalsza kompresja może zwiększyć rozmiar pliku i wydłużyć czas przesyłu. W standardzie MNP 5 dane są zawsze kompresowane. Modemy pracujące w standardzie V.42bis posiadają również korekcję błędów V.42. Połączenie tych dwóch protokołów daje wolną od błędów transmisję danych o maksymalnej kompresji
Standardy firmowe Oprócz standardów modulacji, korekcji błędów i kompresji tworzonych bądź zatwierdzanych przez ITU-T, istnieją też standardy tworzone przez poszczególne firmy, które nie są zatwierdzone przez żadne oficjalne instytucje standaryzujące. Niektóre z nich są nawet popularne i można powiedzieć, że stały się pseudostandardami. Najbardziej popularnymi standardami opracowanymi przez niezależną firmę są protokoły MNP stworzone przez Microcom. Wprowadzona przez tę firmę metoda kompresji danych i korekcji błędów jest stosowana również przez innych producentów modemów. Inną firmą tworzącą standardy pracy modemów jest U.S. Robotics. Dzięki agresywnej kampanii reklamowej przeprowadzonej przy udziale operatorów BBS-ów, jej protokoły modulacji HST (high-speed technology) zdobyły w latach 80. znaczną część rynku.
HST Jest to opracowany przez U.S. Robitics protokół modulacji do pracy w zmodyfikowanym półdupleksie z prędkościami 14,4 kb/s i 9600 b/s. Był powszechny w BBS-ach i konkurencyjny wobec standardu V.32. Modemy HST pracują w jedną stronę z prędkościami 9600 b/s i 14,4 kb/s, a w drugą stronę - odpowiednio 300 b/s i 450 b/s. Jest idealnym protokołem do interaktywnych połączeń, nie potrzebuje układu wytłumienia echa, co zmniejsza jego cenę. U.S. Robotics wytwarza również modemy pracujące zarówno ze standardowymi, jak i własnymi protokołami. Wykorzystują one standardy V32bis i HST, co umożliwia podłączenie do niemal wszystkich systemów z maksymalną prędkością. Swego czasu były to najlepsze dostępne modemy; polecałem je przez wiele lat.
DIS Jest to protokół modulacji opracowany przez firmę CompuCom do pracy z prędkością 9600 b/s, wykorzystujący dynamiczną stabilizację impedancji (dynamie impedance sta-bilization DIS). Posiada większą redukcję zakłóceń niż protokół V.32. Wdrożenie standardu jest bardzo tanie, ale podobnie jak HST, tylko jedna firma produkuje modemy z tym protokołem. Ze względu na małe koszty standardów V.32 i V.32bis, DIS najprawdopodobniej zostanie wyeliminowany.
MNP MNP to standard korekcji błędów polegający na wykrywaniu przez modemy błędów transmisji i wysyłaniu żądania powtórnej transmisji danych. Niektóre poziomy protokołu MNP zapewniają również kompresję danych. Standard MNP z czasem ewoluował tworząc nowe klasy, każda była rozszerzeniem poprzedniej. Najnowsze rozwiązania spełniają wymagania klas od l do 5. Wyższe klasy maj ą zastosowanie tylko do modemów firmy Microcom Protokół MNP jest wykorzystywany głównie dzięki swoim możliwościom korekcji błędów. Nowsze klasy (4 i 5) oferują wzrost wydajności, a klasa 5 zapewnia również kompresję danych w czasie rzeczywistym. Poniżej przedstawiam pełne zastawienie klas protokołów MNP, mimo że niższe klasy nie są istotne dla użytkowników modemów:
* Klasa l (block modę) wykorzystuje transmisję asynchroniczną w półdupleksie (jednokierunkową). Metoda ta zapewnia tylko 70% skuteczności i korekcji błędów i dlatego obecnie jest rzadko używana. * Klasa 2 (stream modę) wykorzystuje transmisję asynchroniczną w pełnym du pleksie (dwukierunkową). Zapewnia również korekcję błędów. Ze względu na czas potrzebny do ustalenia protokołu transmisji, przepustowość w tej klasie wynosi ok. 84% połączeń bez MNP, czyli ok. 202 znaki na sekundę przy 2400 b/s (240 znaków na sekundę to teoretyczne maksimum). Klasa ta jest rzadko używana. * Klasa 3 zawiera funkcje klasy 2, ale ma większą wydajność. Wykorzystuje transmisję synchroniczną w pełnym dupleksie. Poprawiona procedura zapewnia przepustowość ok. 108 % w porównaniu do modemów bez MNP, przenosząc 254 znaki na sekundę przy prędkości 2400 b/s. • * Klasa 4 to klasa o podwyższonej wydajności, wykorzystująca metody Adaptive Packet Assembly i Optimized Data Phase. Zwiększa wydajność o ok. 5%, ale rzeczywisty wzrost prędkości zależy od typu wywołania i połączenia - może wynosić od 25 do 50 procent 4 Klasa 5 to protokół kompresji danych używający adaptacyjnego algorytmu czasu rzeczywistego (real-time adaptive algorithm). Zwiększa przepustowość do 50 procent, ale rzeczywista wydajność zależy od typu przesyłanych danych. Pliki tekstowe dają największy wzrost wydajności, z kolei pliki programów -najmniejszy, gdyż nie można ich kompresować. W przypadku plików już skompresowanych ARC-em lub PKZIP-em, wydajność nawet się obniża, dlatego też jest często wyłączany w systemach BBS-u.
V-Series V-Series to protokół korekcji błędów stworzony przez firmę Hayes i wykorzystywany w niektórych jej modemach. Po stworzenia tanich modemów V.32 i V.32bis (również przez firmę Hayes) protokół V-Series nie przestał funkcjonować. Modemy V-Series wykorzystują zmodyfikowany protokół V.29, czasami określany mianem ping-pong protocol, ze względu na wykorzystywanie jednego szybkiego kanału i jednego wolnego kanału, które zamieniają się ze sobą.
CSP Protokół CSP (CompuCom Speed Protocol) to protokół korekcji błędów i kompresji danych dostępny w modemach DIS wytwarzanych przez firmę CompuCom
Standardy faksmodemów Faksy to odrębna technologia, chociaż posiada ona wiele wspólnego z przesyłaniem danych. To podobieństwo doprowadziło do połączenia faksu i modemu w jedno urządzenie. Większość producentów modemów wytwarza również faksmodemy. Międzynarodowe standardy transmisji faksów zostały stworzone przez CCITT. Możemy je podzielić na cztery grupy, z których każda używa innej technologii i innych standardów przesyłania i odbioru faksów. Faksy grup I i II są relatywnie wolne i można powiedzieć, że nie zapewniają obecnie odpowiednich warunków pracy. Faksy grupy III są wykorzystywane praktycznie przez wszystkie dzisiejsze faksy, również te połączone z modemami. Faksy grup IIII są analogowe, natomiast faksy grupy IV zaprojektowano jako urządzenia cyfrowe do praczsiecią ISDN lub innymi sieciami cyfrowymi. Ponieważ system telefoniczny nadal jest analogowy, na rynku można spotkać niewiele faksów grupy IV
Faksy grupy Protokół grupy III określa maksymalną prędkość transmisji na 9600 bodów oraz dwa poziomy rozdzielczości obrazu: standardową (203x98 pikseli) i dokładną (303x196 pikseli). Protokół przewiduje także użycie protokołu kompresji danych, zdefiniowanego przez CCITT (o nazwie T.4) oraz modulację V.29. Wewnątrz grupy III występują dwie podklasy: Class l i Class 2. Różnica pomiędzy nimi polega na tym, że w klasie l obraz jest generowany przez oprogramowanie, oprogramowanie także zajmuje się obsługą sesji i komunikacją z systemem odbiorcy. W klasie 2 obraz każdej strony jest generowany i przesyłany do faksmodemu, który sam zajmuje się obsługą sesji i komunikacją. Z tego powodu w klasie l zapewnienie zgodności z drugim urządzeniem spada głównie na oprogramowanie, podczas gdy w klasie drugiej jest zadaniem sprzętu. Choć obie klasy wywołują dodatkowe polecenia AT związane z faksem, zestaw poleceń klasy 2 jest dużo większy i zawiera ponad 40 nowych instrukcji. Specyfikacja Class l została zaakceptowana i ratyfikowana przez CCITT w 1988 roku, podczas gdy klasa 2 została odrzucona. Jednak niektórzy producenci opracowali modemy klasy 2 używając szkicu (tj. nieratyfikowanej) wersji standardu. Obecnie właściwie wszystkie faksmodemy obsługują standard Group III, Class l i to powinno być minimalnym wymaganiem dla dowolnego faksmodemu, który chcesz kupić. Obsługa klasy 2 jest dodatkową zaletą, ale sama w sobie nie zapewnia już tak dużej - prawie uniwersalnej - zgodności jak klasa 1
Faks grupy IV Podczas gdy protokoły grup od I do III są z natury analogowe (tak jak modemy) i zostały opracowane do wykorzystania standardowych analogowych linii telefonicznych, specyfikacja grupy IV przewiduje cyfrową transmisję obrazów i wymaga linii ISDN lub innego cyfrowego połączenia z systemem odbiorcy. Grupa IV obsługuje rozdzielczość faksu do 400 dpi i korzysta z nowszego protokołu kompresji danych CCITT, o nazwie T.6. Aby cyfrowe rozwiązania, takie jak Taksowanie przy użyciu protokołu grupy IV, mogły działać, połączenie pomiędzy systemem źródłowym a docelowym musi być w pełni cyfrowe. To oznacza, że choć twoja centrala telefoniczna jest centralą cyfrową i używasz cyfrowego łącza, istnieje bardzo duże prawdopodobieństwo, że gdzieś w systemie wystąpią elementy analogowe. Dopóki sieć telefoniczna nie zostanie wymieniona na w pełni cyfrową (co jest ogromnym przedsięwzięciem), systemy grupy IV nie zastąpią systemów grupy III
Modemy 56 kb Ostatnio pojawiły się na rynku nowe modemy 56 kb/s (kilobitów na sekundę). Umożliwiają one uzyskanie prędkości przesyłu danych od hosta do klienta na poziomie 56 kb/s. Jest to dwukrotnie większa prędkość niż 28,8 kb/s, ale nie podwaja prędkości ostatniego standardu 33,6 kb/s. Aby zrozumieć, w jaki sposób udało się osiągnąć tę prędkość, musimy najpierw wyjaśnić kilka zasad technologii modemowej. W tradycyjnym modemie informacja jest przetwarzana z cyfrowej na analogową, tak aby mogła być przesłana liniami telefonicznymi, i na końcu jest z powrotem zamieniana na postać cyfrową. Ta zamiana z postaci cyfrowej na analogową powoduje pewne obniżenie prędkości i nawet jeżeli linia telefoniczna jest w stanie przesłać dane z prędkością 56 kb/s, to i tak maksymalna efektywna prędkość wyniesie ok. 33,6 kb/s, właśnie ze względu na konwersję. Według prawa (od nazwiska autora nazwane prawem Shannona), maksymalna prędkość osiągalna w analogowych liniach telefonicznych wynosi 33,6 kb/s.
Jednak prawo Shannona zakłada, że całość sieci telefonicznej jest analogowa. Tak już nie jest w przypadku znacznych obszarów Stanów Zjednoczonych. W obszarach miejskich większość linii jest cyfrowa, łącznie z centralami telefonicznymi, gdzie podłączona jest twoja linia telefoniczna. Centrala telefoniczna przetwarza cyfrowy sygnał na analogowy przed wysłaniem go do ciebie. Biorąc pod uwagę fakt, że system telefoniczny jest już w większości cyfrowy, możesz -w pewnych przypadkach - pominąć początkową konwersję cyfrowo-analogową i wysłać poprzez linię bezpośrednio dane cyfrowe. Wtedy zamiast dwóch lub więcej konwersji trzeba wykonać tylko jedną. W rezultacie teoretycznie można zwiększyć szybkość transmisji danych tylko w jednym kierunku, powyżej 35 kb/s określonych przez prawo Shannona, do szybkości prawie 56 kb/s, obsługiwanej przez sieć telefoniczną. Jednak transmisja w drugim kierunku jest wciąż ograniczona do maksymalnej szybkości 33,6 kb/s protokołu V.34.
Ograniczenia 56 kb Modemy 56 kb mogą zwiększyć szybkość transmisji powyżej prędkości oferowanej przez protokół V.34, ale podlegają przy tym pewnym ograniczeniom. W odróżnieniu od standardowych technologii modemowych, nie możesz kupić dwóch modemów 56 kb, zainstalować ich w dwóch komputerach i od razu osiągnąć szybkości 56 kb/s. Po jednej ze stron takiego połączenia musi zostać użyty specjalny cyfrowy modem, który łączy się z publiczną siecią telefoniczną bez przeprowadzania konwersji cyfrowo-analogowej Modemy 56 kb mogą więc być używane jedynie do połączenia się z dostawcą usług Internetu lub innymi usługodawcami, którzy zainwestowali w stworzenie odpowiedniej infrastruktury do takich połączeń. Ponieważ dostawca usług posiada cyfrowe połączenie z siecią publiczną, może zostać przyśpieszona transmisja do twojego komputera, ale nie dane wysyłane z twojego komputera do dostawcy. W praktyce oznacza to, że możesz szybciej wędrować po sieci i ściągać dane, ale jeśli zainstalowałeś serwer WWW na komputerze, twoi użytkownicy nie skorzystają ze wzrostu szybkości, ponieważ ruch wychodzący nie jest przyśpieszany. Poza tym przy transmisji od dostawcy usług do twojego komputera może występować tylko jedna konwersja cyfrowo-analogowa. Jest to podyktowane naturą połączenia z lokalną centralą telefoniczną. Jeśli w połączeniu wystąpią dodatkowe konwersje, nie będziesz mógł skorzystać z technologii 56 kb; maksymalną szybkością, z jaką będziesz mógł przesyłać i odbierać dane, będzie 33,6 kb/s. Niektórzy producenci modemów dostarczają oprogramowanie testujące linię telefoniczną i informujące, czy jest możliwa transmisja danych z prędkością 56 kb/s Modemy 56 kb są bardzo podatne na spowalnianie transmisji wywołane szumem linii. Twoja linia telefoniczna może się doskonale nadawać do rozmów, a nawet komunikacji modemowej o niższej szybkości, ale niesłyszalne szumy mogą łatwo spowodować, że transmisja z szybkością 56 kb/s zostanie w efekcie zwolniona do poziomu transmisji 33,6 kb/s lub nawet mniej
Standardy 56 kb Aby osiągnąć połączenie z dużą szybkością, zarówno oba modemy, jak i modemy dostawcy usług muszą pracować w tej samej technologii 56 kb. W tym momencie powstaje najważniejszy problem, związany ze zgodnością technologii 56 kb. Jak to się zwykle zdarza, producenci modemów śpieszą się z wprowadzeniem na rynek najnowszych rozwiązań, więc kilka firm opracowało rywalizujące ze sobą standardy. U.S. Robotics (obecnie część 3COM) wprowadziła linię modemów 56 kb używających układów Texas Instruments, nazywanych X2, podczas gdy Rockwell, inny producent układów przeznaczonych dla modemów, opracował inny standard 56K, noszący nazwę K56flex.
Oczywiście, oba standardy nie są ze sobą zgodne, w związku z czym pozostała część rynku uległa gwałtownej polaryzacji, obsługując jeden lub drugi standard. W rezultacie powstał konflikt podobny do znanego konfliktu VHS z Beta z lat siedemdziesiątych Aby sprawy jeszcze bardziej skomplikować, dosłownie parę dni przed wypuszczeniem na rynek pierwszych modemów X2 firma U.S. Robotics zorientowała się, że istniejące ograniczenie (FCC Part 68) dotyczące maksymalnej mocy sygnału, który można przesłać przez sieć analogową, ograniczy transfer do ok. 53 kb/s. To ograniczenie zostało wprowadzone, ponieważ zwiększenie mocy transmitowanej poprzez linię telefoniczną w pewnym momencie powoduje wzmożoną interferencję pomiędzy sąsiednimi liniami, czyli tzw. crosstalk. To zarządzenie weszło w życie już dawno temu i nie miało się odnosić do modemów, więc obecnie trwają prace nad rozwiązaniem tego problemu.
V.90 Na szczęście ten problem odchodzi już w przeszłość. 5 lutego 1998 roku ITU-T zaaprobowało inny standard modemów 56 kb - V.90. Obecnie wszyscy producenci modemów rozbudowują swoje produkty o obsługę V.90; będzie możliwa także współpraca urządzeń działających w dwóch wcześniejszych standardach. Ponieważ implementacje X2 i K56flex są zasadniczo podobne w opisanych wcześniej wymaganiach sprzętowych, powinno być możliwe takie zmodyfikowanie istniejących modemów, aby mogły pracować w standardzie V.90. W tym celu trzeba będzie wymienić oprogramowanie chipsetu poprzez zastosowanie aktualizacji pamięci jlash lub po prostu poprzez wymianę układu. O tym jednak zadecydują producenci poszczególnych urządzeń
Zalecenia dotyczące modemu Modem dla komputera osobistego może mieć postać urządzenia zewnętrznego, osobno zasilanego i podłączonego do komputera poprzez port szeregowy, lub urządzenia wewnętrznego, zbudowanego jako karta instalowana w jednym z gniazd rozszerzeń. Większość producentów modemów zwykle oferuje zarówno wewnętrzne, jak i zewnętrzne wersje tego samego urządzenia. Modemy zewnętrzne są zwykle nieco droższe, gdyż posiadają obudowę i oddzielne zasilanie. Jednak oba rodzaje urządzeń są funkcjonalnie identyczne i decyzja o zakupie urządzenia danego typu zależy od tego, czy masz wolne gniazdo rozszerzenia lub port szeregowy, od ilości wolnego miejsca na biurku, od wydajności zasilacza komputera oraz od tego, czy potrafisz otworzyć komputer i zainstalować kartę rozszerzenia. Osobiście wolę modemy zewnętrzne, a to głównie z powodu wizualnej informacji, jaką dają zamontowane w nich diody świecące. Dzięki nim można natychmiast stwierdzić, czy modem jest podłączony do linii i czy akurat odbiera lub wysyła dane. Obecnie także niektóre programy komunikacyjne posiadają możliwość imitowania działania takich wskaźników, dostarczając tych samych informacji. Istnieją również inne sytuacje - w których lepszym wyborem jest modem wewnętrzny. Na wypadek, gdyby porty szeregowe komputera nie posiadały buforowanych układów UART takich jak 16550, większość modemów wewnętrznych posiada wbudowane porty 16550 UART. Dzięki nim nie musisz się przejmować rozbudową portów szeregowych w komputerze. Oprócz tego, zewnętrzne modemy 56 kb czasem są ograniczone przepustowością portów szeregowych komputera. W takim wypadku także powinieneś wybrać modem wewnętrzny
H Patrz „UART", str. 655 Nie wszystkie modemy funkcjonujące z tą samą szybkością posiadają te same funkcje. Wielu producentów modemów oferuje urządzenia działające z tą samą szybkością, ale z różnym zestawem możliwości i po różnej cenie. Droższe modemy zwykle posiadają zaawansowane funkcje, takie jak dzwonienie dystynktywne czy wyświetlanie numeru dzwoniącego. Kupując modem, pamiętaj, aby posiadał wszystkie możliwości, które ci będą potrzebne. Dobrze jest także upewnić się, że posiadane oprogramowanie, łącznie z systemem operacyjnym, zostało przetestowane w pracy z danym modelem urządzenia. Obecnie większość markowych modemów oferuje szeroki zakres standardów modulacji, korekcji błędów i połączeń danych. Jest tak, ponieważ w większości modemy dokonują tzw. autonegocjacji, czyli podczas nawiązywania połączenia z innym modemem wybierają najlepszy wspólny zestaw protokołów. Najczęściej uzgadniają one możliwie szybki protokół, co nie musi oznaczać najszybszego, który potrafią obsłużyć. Jeśli chodzi o szybkość, jedynym powodem, dla którego można było zrezygnować z zakupu modemu 56K, był konflikt pomiędzy standardami X2 i K56flex. Obecnie, gdy producenci zaczęli implementować protokół V.90, nie ma powodu, aby nie kupować tych urządzeń. Różnica w cenie pomiędzy modemem V.90 a V.34 staje się minimalna, a nawet jeśli w tej chwili nie możesz w pełni wykorzystać możliwości modemu 56K, nadal możesz go używać do połączeń V.34, a przejść na V.90, gdy stan linii się poprawi.
ISDN (Integrated Services Digital Network) Aby odrzucić ograniczenia modemów asynchronicznych, trzeba całkowicie przejść na łączność cyfrową. Rozwiązaniem jest ISDN, następny osiągnięcie w telekomunikacji, w którym odrzucono starą technologię analogowej transmisji danych na rzecz nowej, całkowicie cyfrowej. Dzięki ISDN możesz połączyć się z Internetem z szybkością do 128 kb/s. ISDN istnieje już od ponad dziesięciu lat, lecz dopiero ostatnio zaczynają z niego korzystać prywatni użytkownicy. Wcześniej nie było zbyt rozpowszechnione głównie ze względu na trudności z nakłonieniem operatora sieci telefonicznej do zainstalowania takiej usługi. Jeszcze kilka lat temu mało kto w lokalnej firmie telefonicznej w ogóle słyszał o ISDN, teraz jednak powstało sporo firm, które kompleksowo zajmują się podłączaniem ISDN-u, od dostawy usług Internetowych, poprzez dostarczenie sprzętu ISDN aż po załatwienie formalności z firmą telefoniczną. Choć ISDN może być wykorzystywany do prowadzenia zwykłych rozmów, nie jest zwykłym połączeniem telefonicznym, nawet jeśli wykorzystuje istniejące przewody telefoniczne. Aby móc osiągać duże szybkości transmisji, oba końce połączenia muszą być cyfrowe, tak więc zwykle linie ISDN są przygotowane specjalnie do połączenia z dostawcą usług Internetu, który także posiada ISDN. Połączenia ISDN wykorzystuje się także w firmach do połączeń z Internetem lub do utrzymania łączności z lokalną siecią komputerową w oddalonym przedstawicielstwie ISDN nie jest także łączem dzierżawionym, w którym dwie stacje są połączone na stałe. Twoje oprogramowanie musi wybrać odpowiedni numer odbiorcy (specjalny numer ISDN) i rozłącza się po zakończeniu sesji. Z tego powodu możesz w miarę potrzeb połączyć się z innym dostawcą usług, bez konieczności interwencji ze strony kompanii telefonicznej
Usługi ISDN W połączeniach ISDN szerokość pasma jest podzielona na tzw. kanały B (bearer channels), przesyłające dane z szybkością 64 kb/s, oraz kanały D (delta channels), działające z prędkością 16 lub 64 kb/s, w zależności od rodzaju usługi. Kanały B przekazują głos lub dane użytkownika, podczas gdy kanały delta służą do kontroli ruchu. Istnieją dwa typy usług ISDN: BRI (Basic Ratę Interface) oraz PRI (Primary Ratę Interface). Usługa BRI jest przewidziana dla prywatnych użytkowników i składa się z dwóch kanałów B i jednego kanału D 16 kb/s, co razem daje 144 kbps. Usługa PRI jest skierowana bardziej do firm, na przykład w celu utrzymania połączeń PBX z lokalną centralą telefoniczną. W Ameryce Północnej i Japonii usługa PRI składa się z 23 kanałów B i jednego kanału D 64 kb/s, co łącznie daje 1356 kb/s, przy użyciu standardowego interfejsu Tl. W Europie usługa PRI składa się z 30 kanałów B i jednego kanału D 64 kb/s, dając łącznie 1984 kb/s, zgodnie ze standardem telekomunikacyjnym El. Firmy, które potrzebują większej przepustowości niż oferuje jedno połączenie PRI, mają możliwość użycia kanału D do obsługi wielokrotnych połączeń PRI, przy użyciu NFAS (Non-Facility Associated Signaling). Gdy mowa o połączeniach ISDN, jeden kilobajt odpowiada 1000 bajtów, a nie 1024 bajtom jak w standardowych aplikacjach komputerowych. Istnieje możliwość łączenia przepustowości kilku kanałów B przy pomocy protokołu takiego jak Multilink PPP lub BONDING (opracowanego przez Bandwith ON Demand INteroperability Group), dzięki czemu możesz użyć usługi BRI do nawiązania pojedynczego 128 kb/s - połączenia z Internetem. Możesz także podłączyć kilka urządzeń do pojedynczego łącza ISDN i transmitować kilka sygnałów w różne miejsca równocześnie, zastępując w ten sposób kilka standardowych linii telefonicznych. Aby móc skorzystać z łącza ISDN i usługi BRI, musisz znajdować się w odległości do 5,5 km od centrali. Aby utrzymać dłuższe łącza, konieczne jest zastosowanie dość drogich repeaterów (repeat - powtarzać), a niektóre firmy telefoniczne mogą wtedy całkowicie odmówić tej usługi. W Stanach Zjednoczonych większość istniejących przewodów telefonicznych jest w stanie obsłużyć komunikację ISDN, więc zwykle nie trzeba płacić za położenie nowej linii. Ceny za usługi ISDN znacznie się wahają, w zależności od miejsca zamieszkania. W Stanach Zjednoczonych opłata instalacyjna wynosi od 100 do 150 dolarów, w zależności od tego, czy jest wykorzystywana stara linia, czy kładziona nowa. Abonament miesięczny zwykle wynosi od 30 do 50 dolarów, często płaci się także za czas połączenia, od jednego do sześciu centów za minutę. Pamiętaj także, że trzeba kupić tzw. terminal ISDN do komputera i być może także inny sprzęt, zaś wspomniane opłaty pokrywają jedynie koszty połączenia z firmą telefoniczną. Oprócz nich trzeba zapłacić także dostawcy usług za dostęp do Internetu z szybkością ISDN.
Sprzęt ISDN Aby podłączyć komputer do łącza ISDN, musisz posiadać odpowiednie urządzenie nazywaneadapterem końcowym (terminal adapter, TA). Adapter ma postać karty rozszerzenia lub zewnętrznego urządzenia podłączanego poprzez port szeregowy, podobnie jak modem. W rzeczywistości, adaptery końcowe są często nazywane błędnie modemami ISDN, mimo że faktycznie z modemami mają niewiele wspólnego, gdyż nie przeprowadzają żadnej konwersji analogowo-cyfrowej.
Istnieją dwa różne interfejsy dla usług ISDN. Tzw. U-Interface składa się z pojedynczej pary przewodów prowadzących do lokalnej centrali firmy telefonicznej. Tzw. Subscriber/ Termination (S/T) Interface składa się z dwóch par przewodów, zwykle prowadzących od gniazdka w ścianie do adaptera końcowego. Urządzenie konwertujące sygnały interfejsu U na sygnały interfejsu S/T nosi nazwę urządzenia końcowego sieci (network termination device, NT-1). Niektóre adaptery końcowe posiadają wbudowany konwerter NT-1, umożliwiając połączenie interfejsu U bezpośrednio do komputera. Jest to doskonałe rozwiązanie dopóty, dopóki komputer jest jedynym urządzeniem, które chcesz podłączyć do linii ISDN. Jeśli chcesz podłączyć kilka urządzeń lub jeśli adapter końcowy nie posiada konwertera NT-1, musisz oddzielnie kupić ten konwerter. Alternatywąjest także zakup specjalnego terminala, który możesz podłączyć do lokalnej sieci komputerowej. To szczególnie dobre rozwiązanie w przypadku, gdy posiadasz kilka komputerów, ponieważ możesz wtedy użyć jednego adaptera końcowego dla nich wszystkich Podczas zakupu adaptera końcowego najlepiej wybierz wersję wewnętrzną. Adapter z kompresją może łatwo przekroczyć możliwości niezawodnej transmisji danych portu szeregowego. Pamiętaj, że nawet przy umiarkowanej kompresji 2:1 jest przekraczana maksymalna dopuszczalna szybkość 232 kb/s dzisiejszych szybkich portów szeregowych
Łącza dzierżawione Użytkownicy o dużych wymaganiach co do prędkości transmisji danych (i o zasobnych portfelach) mają do dyspozycji dedykowane łącza dzierżawione, którymi mogą przesyłać dane pomiędzy dwoma stacjami z szybkością znacznie przewyższającą możliwości linii ISDN. Łącze dzierżawione to stałe, 24-godzinne połączenie z określonym miejscem, które może zostać zmienione jedynie przez firmę telefoniczną. Większe firmy używają łączy dzierżawionych do utrzymania łączności z lokalnymi sieciami komputerowymi w oddalonych oddziałach lub w celu połączenia się z Internetem poprzez dostawcę usług. Jak zobaczymy w następnych podrozdziałach, łącza dzierżawione oferują różne prędkości transmisji.
Łącza T-l Do połączenia oddalonych od siebie sieci, do obsługi dużej liczby użytkowników Interneto-wych, a także w przypadku organizacji, które chcą oferować własne usługi Internetowe, mądrą inwestycją jest łącze T-l. T-l to cyfrowe łącze pracujące z szybkością 1,55 Mb/s (megabitów na sekundę - przyp. tłum.). To ponad dziesięć razy szybciej niż w przypadku łącza ISDN. Łącze T-l może zostać podzielone, w zależności od tego, jak będzie wykorzystywane - na 24 indywidualne linie po 64 kb/s każda lub pozostawione jako pojedynczy, pojemny kanał komunikacyjny. Niektórzy dostawcy Internetu umożliwiają wykorzystanie części łącza T-l (w kawałkach po 64 kb/s). W Stanach Zjednoczonych koszt utrzymania łącza T-l wynosi parę tysięcy dolarów miesięcznie, dość droga jest także sama instalacja łącza. Jednak w przypadku większych organizacji wymagających dużej przepustowości, bardziej ekonomiczne może być zainstalowanie łącza o wyższej pojemności zamiast ciągłego dodawania wolniejszych łączy
Łącza T-3 Jako odpowiednik około trzydziestu łączy T-l, łącze T-3 zapewnia transmisję 45 Mb/s i jest odpowiednie jedynie dla bardzo dużych organizacji i uczelni. Jeśli chodzi o cenę, podpada pod kategorię: „Jeśli musisz o nią pytać, to na pewno cię nie stać."
Sieci telewizji kablowej (CATV) Choć w stosunku do standardowej technologii modemowej, ISDN stanowi znaczący krok na drodze wzrostu szybkości transmisji, to jednak trudności z instalacją oraz koszty utrzymania (zwłaszcza jeśli w grę wchodzi także opłata za czas połączenia) mogą sprawiać, że nie będzie stanowić zadowalającego rozwiązania. Następnym krokiem w kierunku wzrostu szybkości są sieci telewizji kablowej (CATV, cable TV), których usługi, jeśli są dostępne, są także znacznie tańsze niż ISDN.
Modemy kablowe Tak jak w przypadku ISDN, urządzenie używane do połączenia komputera z siecią telewizji kablowej także jest zwykle błędnie nazywane modemem (w dalszej części będę się jednak trzymał tego określenia dla wygody). Jednak takie urządzenie - modem kablowy - pełni o wiele więcej funkcji. W rzeczywistości jest co prawda modulatorem i demodulatorem, ale także funkcjonuje jako tuner, mostek sieciowy, szyfrator, agent SNMP oraz koncentrator. Do podłączenia komputera do sieci telewizji kablowej, inaczej niż w przypadku standardowych technologii modemowych, nie używa się portu szeregowego. Zamiast tego musisz zainstalować w komputerze standardową kartę sieciową typu Ethernet. Karta sieciowa łączy się z modemem kablowym przy pomocy takiej samej skrętki, jaka jest używana w lokalnych sieciach komputerowych. W rzeczywistości, komputer oraz modem kablowy tworzą dwuwęzłową sieć, w której modem pełni rolę koncentratora Modem kablowy łączy się z siecią telewizji kablowej przy pomocy standardowego kabla koncentrycznego, takiego samego, jaki podłącza się do telewizora. Tak więc modem kablowy pełni funkcję mostka pomiędzy małą lokalną siecią komputerową opartą na skrętce a hybrydową siecią HFC łączącą wszystkich odbiorców telewizji kablowej w sąsiedztwie.
Pasmo przenoszenia sieci kablowej Telewizja kablowa używa tzw. sieci szerokopasmowej, co oznacza, że pasmo przenoszenia jest podzielone w celu przekazywania wielu sygnałów przy pomocy tej samej linii. Te poszczególne sygnały odpowiadają poszczególnym kanałom telewizyjnym odbieranym w telewizorze. Typowa sieć HFC posiada pasmo przenoszenia o szerokości około 750 MHz, a każdy kanał zajmuje 6 MHz. Ponieważ kanały telewizyjne rozpoczynają się od częstotliwości około 50 MHz, kanał 2 znajdziesz w zakresie 50-56 MHz, kanał 3 w zakresie 57-63 MHz, iid. poprzez całą szerokość pasma. Przy takich założeniach w sieci kablowej można przekazać około 110 kanałów. W celu przesyłania siecią danych, systemy telewizji kablowej zwykle rezerwują w zakresie 50-750 MHz pasmo odpowiadające szerokości jednego kanału przeznaczone dla ruchu przychodzącego (czyli danych rozprowadzanych do odbiorców). W ten sposób modem kablowy funkcjonuje jako tuner, podobnie jak telewizor podłączony do sieci kablowej, zapewniając, że komputer otrzymuje sygnał o odpowiedniej częstotliwości. Ruch wychodzący (czyli dane przesyłane z komputera do sieci) używa innego kanału. Systemy telewizji kablowej rezerwują pasmo od 5 MHz do 42 MHz na różnego typu sygnały wychodzące (na przykład sygnały generowane przez telewizory umożliwiające wybór płatnych filmów na żądanie). W zależności od dostępnej szerokości pasma, może się okazać, że operator sieci kablowej nie utrzymuje tej samej wysokiej szybkości ruchu wychodzącego, co przychodzącego. Taka sieć nosi nazwę sieci asymetrycznej
Ponieważ szybkość ruchu wychodzącego często jest dużo mniejsza od szybkości ruchu przychodzącego, telewizja kablowa zwykle nie jest najlepszym rozwiązaniem, jeśli chodzi o instalowanie serwerów WWW lub innych usług internetowych. Jest to całkiem logiczne, gdyż sieci telewizji kablowych są przeznaczone głównie do wykorzystania przez indywidualnych, domowych użytkowników. Jednak, gdy ta technologia dojrzeje, ten typ połączenia z Internetem może stać się powszechny także dla profesjonalnych dostawców usług Ilość danych przesyłanych poprzez pojedyncze podpasmo 6 MHz zależy od typu modulacji stosowanej w systemie, z którym twój komputer łączy się poprzez sieć. Przy użyciu technologii o nazwie 64 QAM (ąuadrature amplitudę modulation), kanał może przesłać do 27 Mb/s w ruchu przychodzącym. Przy zastosowaniu wariantu o nazwie 256 QAM przepustowość może wzrosnąć do 36 Mb/s. Musisz jednak zdawać sobie sprawę, że w żadnym wypadku nawet w przybliżeniu nie osiągniesz takiej szybkości przesyłu danych do twojego komputera. Po pierwsze, karta sieciowa Ethernet używana do połączenia z modemem kablowym ogranicza prędkość przekazywania danych do 10 Mb/s, ale w rzeczywistości nawet taki wynik jest praktycznie całkowicie nieprawdopodobny. Tak jak w przypadku sieci lokalnej, dzielisz dostępne pasmo przenoszenia także z innymi użytkownikami. Wszyscy twoi sąsiedzi, którzy -tak jak ty opłacają korzystanie z usług sieci kablowej, mają do dyspozycji ten sam 6-megahercowy kanał. Gdy z sieci zacznie korzystać większa liczba użytkowników, więcej systemów będzie korzystać z tego samego pasma i przepustowość systemu się zmniejszy
Bezpieczeństwo w sieciach telewizji kablowej Ponieważ twój komputer dzieli sieć z innymi użytkownikami w sąsiedztwie oraz ze względu na to, że ruch jest dwukierunkowy, ważnym zagadnieniem staje się ochrona w sieciach kablowych. W większości przypadków jest stosowana pewna forma szyfrowania, zapobiegająca niepożądanemu dostępowi do sieci. Tak jak w przypadku odbiornika telewizji kablowej, modem kablowy może zawierać układy szyfrowania wymagane do podłączenia się do sieci. Operator telewizji kablowej może także dostarczać specjalnego oprogramowania używającego odpowiedniego protokołu w celu załogowania się do sieci. Dzięki temu sieć jest chroniona przed dostępem osób niepowołanych, w żaden sposób nie chroni jednak twoich danych. Jeśli używasz systemu operacyjnego w rodzaju Windows 9x, z wbudowaną obsługą sieci typu peer-to-peer, możesz odwoływać się poprzez sieć do komputerów sąsiadów. System operacyjny pozwala na podjęcie decyzji, czy także twoje zasoby mają być udostępniane innym. Jeśli związane z tym ustawienia zostaną niewłaściwie dobrane, sąsiedzi będą mogli przeglądać twoje pliki, modyfikować je, a nawet usuwać z dysku. Pamiętaj, aby omówić tę sprawę z technikiem instalującym modem kablowy; z pewnością zaproponuje właściwe rozwiązanie problemu.
Wydajność sieci telewizji kablowej Fakt, że dzielisz sieć telewizji kablowej z innymi użytkownikami, nie oznacza wcale, że wydajność modemu kablowego jest niska. Typowa, rzeczywista przepustowość waha się w okolicach 512 kb/s, prawie dziesięć razy więcej niż w przypadku najszybszych połączeń modemowych i cztery razy więcej niż przy użyciu łączy ISDN. Dopiero przy takiej prędkości można docenić korzystanie z sieci WWW. Te ogromne pliki dźwięku i wideo, których dotąd tak bardzo unikałeś, nagle ściągają się w ciągu kilku sekund i wkrótce okazuje się, że cały dysk jest zapchany wszelkim dostępnym darmowym oprogramowaniem. Należy przy tym zauważyć, że taka usługa jest zwykle dostępna po bardzo przystępnej cenie. Pamiętaj, że operator telewizji kablowej zastępuje zarówno firmę telefoniczną, jak i dostawcę usług Internetu, oferując bardzo szybki dostęp do sieci WWW.
Cena może wynosić około 40 dolarów miesięcznie, dwa razy więcej niż przeciętny rachunek za konto Internetowe u dostawcy usług, ale za to dużo mniej niż w przypadku łączy ISDN. Nie wymaga przy tym linii telefonicznej i zapewnia 24-godzinny dostęp do światowej sieci WWW. W mojej opinii, ta technologia przewyższa wszystkie inne istniejące obecnie sposoby dostępu do Internetu, zarówno pod względem szybkości, jak i ceny oraz wygody
Bezpośrednie połączenie kablowe Gdy musisz przenieść większą ilość danych pomiędzy komputerami znajdującymi się w tym samym pomieszczeniu, masz do dyspozycji kilka możliwych rozwiązań. Możesz skopiować dane na dyskietki, ale w przypadku kilku megabajtów danych nie jest to zbyt wygodne rozwiązanie. Dyski Zip i inne dyski wymienne mieszczą więcej danych, ale za to w obu systemach musisz mieć ten sam typ napędu lub musisz przenosić napęd z komputera do komputera. Połączenie sieciowe jest najszybszym rozwiązaniem, ale zwykle nie opłaca się instalować sieci w celu jednokrotnego lub okazjonalnego przesyłania danych. Wreszcie, możesz użyć modemu, dzwoniąc z jednego komputera do drugiego i przesyłając pliki linią telefoniczną. Takie rozwiązanie wymaga jednak dwóch modemów i dwóch linii telefonicznych. Jako alternatywę możesz jednak ustanowić „modemowe" połączenie pomiędzy dwoma komputerami, nie wykorzystując przy tym żadnego modemu! Używając specjalnego kabla o nazwie null modem (lub laplink), możesz połączyć porty szeregowe lub równoległe w dwóch komputerach, formując prostą, dwustanowiskową sieć, przez którą możesz przesłać dane. Takie rozwiązanie jest szczególnie użyteczne, gdy posiadasz komputer stacjonarny i komputer przenośny, w których chcesz pracować na tych samych danych. Kabel null modem to specjalny kabel z przewodami połączonymi w taki sposób, aby przewód transmisji danych (TD) jednego portu szeregowego łączył się z przewodem odbioru danych (RD) drugiego portu. Kabel łączący w taki sposób dwa porty szeregowe nosi nazwę dwukierunkowego kabla równoległego. Kable tego rodzaju są zwykle dostępne w każdym sklepie prowadzącym sprzedaż akcesoriów komputerowych. Czasem zdarza się, że takie kable są nazywane kablami laplink; nazwa pochodzi od nazwy pierwszego oprogramowania, w którym zastosowano pomysł wykorzystania bezpośredniego połączenia kablowego. Gdy zainstalujesz już wymagany osprzęt, do nawiązania komunikacji pomiędzy systemami będziesz potrzebował także odpowiedniego oprogramowania. Swego czasu trzeba było w tym celu nabyć odpowiednie oprogramowanie (takie jak LapLink), ale obecnie taka możliwość jest wbudowana w sam system operacyjny, przynajmniej jeśli chodzi o DOS 6, Windows 9x i Windows NT. W DOS-ie takie oprogramowanie składa się z dwóch plików wykonywalnych, INTERSYR. EXE i INTERLNK.EXE. W Windows 9x i Windows NT występuje cała aplikacja o nazwie Bezpośrednie połączenie kablowe. W każdym przypadku jednak oprogramowanie działa zasadniczo tak samo. Jeden z komputerów pełni funkcję hosta (gospodarza), zaś drugi komputer jest gościem. Oprogramowanie umożliwia użytkownikowi, pracującemu przy komputerze-gościu, dwukierunkową transmisję plików z komputerem hosta. W wersji dla DOS-a na komputerze hosta trzeba uruchomić program INTERSYR. W tym systemie może działać inna wersja DOS-a; musisz jedynie skopiować plik INTERSYR. EXE z komputera, w którym zainstalowano DOS 6 (przy pomocy dyskietki). W Windows 98 możesz kliknąć na menu Start, a następnie na Programy, Akcesoria, Komunikację, Bezpośrednie połączenie kablowe. Następnie wybierz opcję Host (rysunek 11.8). W obu przypadkach zostaniesz poproszony o wybranie portu COM lub LPT, do którego podłączyłeś kabel.
W drugim komputerze musisz uruchomić w DOS-ie program INTERLNK.EXE lub w Windows 9x wybrać ten sam program Bezpośrednie połączenie kablowe, po czym wybrać opcję Guest. Także tym razem zostaniesz poproszony o wskazanie portu, po czym oprogramowanie przystąpi do nawiązania połączenia pomiędzy oboma komputerami. Gdy połączenie zostanie nawiązane komputer gościa montuje dyski komputera hosta jako własne dyski systemowe, przypisując im pierwsze dostępne litery Rysunek 11.8. Windows 9x pozwala na połączenie się z innym komputerem przy pomocy kabla szeregowego lub równoległego
Lokalne sieci komputerowe Lokalna sieć komputerowa (LAN - local area network) pozwala na wspólne korzystanie z plików, aplikacji, drukarek, przestrzeni na dysku, modemów, faksów i napędów CD-ROM pomiędzy różnymi systemami, używanie programów typu klient/serwer, wysyłanie poczty elektronicznej i wykonywanie różnych innych czynności, które sprawiają, że grupa komputerów działa jako zespół. Obecnie istnieje wiele sposobów tworzenia lokalnych sieci komputerowych. Jak już wiesz, najprostszą sieć LAN tworzą zaledwie dwa komputery połączone poprzez porty szeregowe lub równoległe. Choć termin sieć rzadko jest używany w kontekście takich połączeń, całkowicie jednak zgadza się to z definicją.
Podstawy sieci W większości przypadków komputery są podłączone do sieci za pośrednictwem tzw. kart sieciowych, które mogą mieć postać kart rozszerzeń (czasem określa się je jako network interface card, w skrócie NIC) lub mogą być wbudowane w płytę główną komputera. Karta sieciowa w każdym komputerze łączy się z okablowaniem sieci, w taki sposób, aby każdy komputer mógł się porozumieć z każdym innym komputerem w sieci Choć w ogromnej większości sieci komputery są połączone kablami, istnieje możliwość zastosowania jako połączenia jednej z wielu technologii bezprzewodowych, takich jak podczerwień, lasery czy mikrofale
Praktycznie wszystkie sieci lokalne są sieciami jednopasmowymi, co oznacza, że gdy komputer transmituje dane, sygnał zajmuje całą szerokość pasma przenoszenia nośnika sieci. Innym rozwiązaniem są sieci szerokopasmowe, w których pojedynczym kablem (nośnikiem) może biec naraz kilka sygnałów. Przykładem takiej sieci jest sieć telewizji kablowej, w której sygnały odpowiadające poszczególnym kanałom są rozsyłane jednocześnie
Klient / Serwer kontra Peer-to-Peer Choć każdy komputer w sieci LAN jest połączony z każdym innym komputerem, niekoniecznie wszystkie komputery się ze sobą komunikują. Istnieją dwa podstawowe typy sieci lokalnych, oparte na wzorcu komunikacji pomiędzy maszynami, noszące nazwę sieci typu klient/serwer oraz sieci typu peer-to-peer. W sieciach klient/serwer każdy komputer ma wyznaczoną rolę, klienta albo serwera. Przeznaczeniem serwera jest udostępnianie swych zasobów komputerom-klientom w sieci. Zwykle serwery znajdują się w obszarach chronionych, gdyż zawierają najcenniejsze dane firmy, zaś operatorzy niezbyt często korzystają z nich bezpośrednio. Pozostałe komputery w sieci pełnią rolę klientów (rysunek 11.9). Rysunek 11.9. Składniki sieci lokalnej typu klient/serwer
Dedykowany komputer-serwer zwykle posiada szybszy procesor, więcej pamięci i więcej miejsca na dyskach niż komputer-klient, gdyż jednocześnie obsługuje czasem nawet tuziny lub setki użytkowników. Na serwerze działa specjalny system operacyjny, na przykład NetWare, który jest zaprojektowany wyłącznie do jak najefektywniejszego udostępniania zasobów. Komputer-klient komunikuje się wyłącznie z serwerami, nigdy z innymi klientami. System klienta to standardowy komputer osobisty z systemem operacyjnym takim jak DOS lub Windows. Jedyną różnicą jest dodatkowe oprogramowanie klienta, sprawiające, że .ma on dostęp do zasobów udostępnianych przez serwery.
Dla odróżnienia, w sieciach peer-to-peer każdy komputer ma równe prawa i może komunikować się ze wszystkimi komputerami w sieci, do których posiada prawa dostępu (rysunek 11.10). Można powiedzieć, że w sieciach peer-to-peer każdy komputer pełni jednocześnie funkcję serwera i klienta. Właśnie dlatego można spotkać się z działalnością typu klient/serwer, mimo że sama sieć jest typu peer-to-peer. Sieci peer-to-peer mogą być bardzo małe i składać się z dwóch komputerów lub mogą być ogromne, łączące setki różnych maszyn. Rysunek 11.10. Architektura logiczna typowej sieci typu peer-to-peer
Sieci peer-to-peer są popularne w małych firmach lub pojedynczych wydziałach większych organizacji. Zaletą sieci peer-to-peer jest brak konieczności wydzielenia osobnego komputera pełniącego funkcje serwera plików. Zamiast tego, każdy komputer może udzielać innym swoich zasobów. Potencjalną wadą sieci tego typu jest zwykle dużo niższy poziom ochrony i kontroli, ponieważ użytkownicy zwykle sami administrują swoimi systemami, podczas gdy sieci typu klient/serwer posiadają scentralizowany system administracji. Windows 9x i Windows NT mają wbudowane funkcje sieci peer-to-peer. Dzięki technologii Pług and Play, zbudowanie sieci w oparciu o kilka kart sieciowych, odpowiednie kable i komputery z systemem Windows 9x jest względnie łatwe. Możesz także połączyć dwa komputery z Windows 9x lub Windows NT przy pomocy modemów i programu Dial-Up Networking wbudowanego w system operacyjny. Dial-Up Networking korzysta z tego samego oprogramowania klienta co standardowa sieć Windows 9x, z tym że połączenie przy pomocy kabla sieciowego jest zastąpione połączeniem modemowym
Oprogramowanie klienta sieci Aby twój komputer mógł się odwołać do zasobów sieciowych, czy to w sieci klient/serwer, czy peer-to-peer, musisz zainstalować w nim odpowiednie oprogramowanie klienta sieci. Klient sieci może być częścią systemu operacyjnego lub oddzielnym produktem, jednak w każdym przypadku jest oprogramowaniem pozwalającym systemowi operacyjnemu na wykorzystanie karty sieciowej do komunikacji z innymi maszynami. W prawidłowo skonfigurowanym komputerze pracującym w sieci, dostęp do zasobów sieciowych nie różni się zbytnio od dostępu do zasobów lokalnych (z tym, że może odbywać się nieco wolniej). Możesz otworzyć plik na dysku sieciowym tak, jakbyś otworzył ten sam plik na dysku lokalnym. Dzieje się tak, ponieważ oprogramowanie klienta sieci jest całkowicie zintegrowane z każdym poziomem systemu operacyjnego komputera. W większości przypadków, oprogramowanie klienta sieci stanowi część systemu operacyjnego. Windows 9x, na przykład, zawiera wszystkie komponenty wymagane do uczestniczenia w sieci peer-to-peer w Windows lub połączenia z serwerami Windows NT i NetWare. Jednak aby połączyć się z siecią z poziomu DOS-a lub Windows 3.1, oprogramowanie klienta sieci musisz zainstalować osobno.
Przełączanie pakietów kontra przełączanie obwodów Komputery podłączone do sieci muszą wspólnie korzystać z jednopasmowego nośnika, więc ich wzajemne komunikowanie się musi być tak opracowane, aby każdy z nich miał okazję przesłania swoich danych. Aby to umożliwić, komputery dzielą przesyłane dane na indywidualne jednostki zwane pakietami. System przesyła po jednym pakiecie, zaś pakiet wędruje po sieci aż do miejsca przeznaczenia, przemieszany z pakietami wysłanymi przez inne komputery. W systemie docelowym z pakietów są składane oryginalne dane. Ten typ sieci nosi nazwę sieci z przetaczaniem pakietów. Dla odróżnienia, w sieciach z przetaczaniem obwodów połączenie nawiązane podczas sesji pomiędzy dwoma komputerami całkowicie zajmuje dostępną przepustowość kabla. Ponieważ nie muszą dzielić nośnika z innymi komputerami, oba systemy przesyłają swoje dane w postaci nieprzerwanego strumienia. Przykładem sieci z przełączaniem obwodów może być publiczna sieć telefoniczna.
Stos protokołów Ponieważ oprogramowanie klienta sieci w każdym komputerze operuje na wielu poziomach, często jest traktowane jako stos, czyli seria modułów i usług ułożonych jedna na drugiej. Wcześniej w tym rozdziale poznaliśmy różne typy protokołów używanych przez modemy do komunikowania się z innym urządzeniem. Komputery sieciowe także używają protokołów, z tego samego zresztą powodu. Aby dwa systemy mogły się ze sobą komunikować, muszą posługiwać się tym samym językiem. Połączenia sieci lokalnych są jednak bardziej skomplikowane od połączeń modemowych i z tego powodu mamy do czynienia z dużo większą ilością protokołów związanych z każdą warstwą stosu. Właśnie dlatego oprogramowanie sieciowe czasem określane jest mianem stosu protokołów. Przy projektowaniu sieci lokalnej, administrator ma do wyboru różne protokoły, jakie można zastosować w danej warstwie stosu, dzięki czemu może jak najlepiej dostosować sieć do warunków danego środowiska
Model OSI Międzynarodowa Organizacja ds. Standardów (International Organization for Standardization - w skrócie ISO) opublikowała dokument zwany modelem OSI (Open System Interconnection). Większość firm wytwarzających produkty sieciowe uznała standard OSI, lecz niewiele lub nawet żadna w pełni go nie wdrożyła. Model OSI dzieli komunikację w sieci LAN na siedem warstw. Większość producentów sieciowych systemów operacyjnych wykorzystuje trzy lub cztery warstwy protokołu, nakładając na siebie niektóre warstwy modelu OSI. Model OSI opisuje sposób, w jaki powinna przebiegać komunikacja między dwoma komputerami. Składa się z siedmiu warstw (patrz rysunek 11.11) odizolowanych od siebie odpowiednio zdefiniowanymi interfejsami. Przez lata wiele projektów próbowało idealnie dopasować się do modelu OSI, ale nie powstał z tego żaden konkretny produkt, Model OSI pozostaje więc pewnym wzorcem, jednak jego znajomość jest nieodzowna każdemu użytkownikowi pragnącemu zrozumieć zasady komunikowania się w sieci Rysunek 11.11. Model OSI Warstwa aplikacji Warstwa prezentacji Warstwa sesji Warstwa transportowa Warstwa sieciowa Warstw Logical a łącza (LLC) danych
Link
Media Access (MAC) Warstwa fizyczna
Oto opis siedmiu warstw modelu OSI: * Warstwa fizyczna. Ta część modelu OSI określa fizyczne i elektryczne właściwości połączeń w sieci (skrętka, światłowód, kabel koncentryczny, złączki, repeatery itp.). Jest to warstwa sprzętowa. Inne warstwy są warstwami programowymi * Warstwa lącza danych. Na tym etapie impulsy elektryczne wchodzą lub wychodzą z kabla. Tylko ta warstwa zna elektryczną reprezentację danych (wzory bitów, metody kodowania i przekazywania głosu w sieciach Token Ring). To w tej warstwie jest wykrywana i usuwana (poprzez żądanie powtórnej transmisji uszkodzonych pakietów) największa liczba błędów. Ze względu na swoją złożoność, warstwa jest często dzielona na warstwy Media Access Control (MAC) i Logical Link Control (LLC). Warstwa MAC zajmuje się dostępem do sieci (przekazywaniem Token lub wykrywaniem kolizji) i zarządzaniem ruchem w sieci. Warstwa LLC, pracująca na wyższym poziomie, dba o wysyłanie i przyjmowanie danych. Ethernet i Token Ring to protokoły warstwy Data Link. * Warstwa sieciowa. Warstwa sieciowa przełącza i przekazuje pakiety zgodnie z ich przeznaczeniem. Jest odpowiedzialna za adresowanie i dostarczanie pakietów. Warstwa łącza danych (Data Link) jest odpowiedzialna za transport danych do komputerów bezpośrednio ze sobą połączonych, natomiast warstwa sieciowa odpowiada za całą drogę pakietu od źródła do celu. Przykładem protokołów warstwy sieciowej są IPX i IP * Warstwa transportowa. Kiedy w danej chwili jest przetwarzany więcej niż jeden pakiet (np. przy przesyłaniu dużego pliku, który musi zostać podzielony na kilka pakietów), warstwa transportowa steruje ułożeniem składników przesyłki i określa przepływ pakietów. Jeśli pojawi się drugi, identyczny pakiet, zostanie on jako taki rozpoznany i odrzucony. Protokoły SPX i TCP są protokołami warstwy transportowej. * Warstwa sesji. Warstwa sesji umożliwia aplikacjom pracę na dwóch stacjach w ramach sesji, koordynując komunikację między nimi - można to sobie wyobrazić jako dobrze zorganizowany dialog między stacjami. Warstwa tworzy sesję, zarządza pakietami wysyłanymi w obydwu kierunkach i kończy sesję. * Warstwa prezentacji. Kiedy komputery IBM, Apple, DEC i Burroughs chcą się porozumieć ze sobą, konieczne jest dopasowanie formatów danych do formatu, jakiego wymaga dany komputer. Robi to warstwa prezentacji. * Warstwa aplikacji. Jest to warstwa modelu OSI widziana przez programy. Wysyłana informacja wchodzi tutaj do modelu OSI i przenika przez wszystkie .warstwy aż do warstwy fizycznej, przechodzi do innej stacji i dalej, poprzez wszystkie warstwy, aż dotrze do programu poprzez własną warstwę aplikacji Tym, co czyni sieciowe systemy operacyjne systemami indywidualnymi różnych producentów (w przeciwieństwie do systemów otwartych), jest stopień ich niezgodności z modelem OSI. Wprowadzono standaryzację protokołu Ethernet, aby wszystkie produkty współpracowały ze sobą, jednak nie zgadzają się one w pełni z modelem OSI
Kapsułkowanie danych Pakiety danych przesyłane poprzez sieć lokalną rozpoczynają swą podróż od ułożenia na szczycie stosu protokołów, na poziomie aplikacji modelu OSI. Są to dane aplikacji w swej najprostszej formie, takiej jak żądanie odczytu pliku z serwera czy rozkaz druku dla drukarki sieciowej. W miarę jak dane są przekazywane w dół stosu protokołów, są „opakowywane" do podróży przez sieć. Taka paczka składa się z informacji dodanych przez każdy protokół w stosie i jest przeznaczona dla odpowiedniego protokołu w komputerze docelowym.
Każdy protokół dodaje własne informacje do danych otrzymanych od protokołu wyższego poziomu, formując tzw. ramkę. Ramka składa się z nagłówka i czasem także ze stopki, dodawanych na początku i końcu pakietu. Nagłówek i stopka to po prostu dodatkowe bajty danych zawierające specjalne informacje kontrolne używane do dostarczenia pakietu do jego miejsca przeznaczenia. Tak więc, gdy żądanie dostępu do pliku jest przesyłane z warstwy aplikacji dalej, następnym napotkanym protokołem jest zwykle warstwa transportowa (ponieważ nie istnieją specyficzne protokoły warstw prezentacji i sesji). Warstwa transportowa pobiera dane od warstwy aplikacji, dodaje własny nagłówek i przesyła całość do warstwy sieci. Sieć pobiera dane warstwy transportowej (włącznie z jej nagłówkiem) i przed przesłaniem całości do warstwy łącza danych dodaje także własny nagłówek. Protokół warstwy łącza danych jest unikatowy o tyle, że oprócz nagłówka dodaje do pakietu także stopkę. Gdy pakiet dotrze do miejsca przeznaczenia, wędruje w górę stosu protokołów, kolejno pozbywając się ramek, w kolejności odwrotnej do tej, w jakiej zostały dodane. W ten sposób protokoły na każdej z warstw stosu komunikują się pośrednio z odpowiednimi protokołami w drugim komputerze (rysunek 11.13).
Sprzętowe składniki sieci LAN Choć do sieci można podłączyć właściwie każdy komputer osobisty, przy budowaniu lub zakupie komputera przeznaczonego do pracy w sieci powinieneś wziąć pod uwagę kilka kryteriów. W następnych sekcjach poznamy rodzaje komputerów typowo stosowanych w sieciach, a także inny związany z tym sprzęt, taki jak różne karty sieciowe oraz różnorodne rodzaje okablowania Rysunek 11.13 Protokoły na każdej z warstw stosu komunikują się pośrednio z odpowiednimi protokolarni w drugim komputerze
Chociaż podstawą dla wszystkich komputerów sieciowych jest standardowy, samodzielny komputer, w wyniku tradycji i zyskanych doświadczeń możemy natrafić głównie na dwa rodzaje maszyn: stacje robocze i serwery. O ile stacje robocze najczęściej są obsługiwane przez użytkowników i znajdują się na ich biurkach, o tyle serwery zwykle umieszczone są w obszarze objętym pewną ochroną. W sieci typu klient/serwer stacja robocza jest wykorzystywana jedynie przez osobę, która przy niej pracuje, podczas gdy z zasobów serwera korzysta jednocześnie wiele osób. Jako ogólną zasadę przyjmuje się, że serwer powinien być dużo wydajniejszy niż stacja robocza, gdyż musi odpowiadać na żądania wielu użytkowników jednocześnie. Z drugiej strony, w sieciach typu peer-to-peer takie rozróżnienie ulega rozmyciu. Ponieważ stacje robocze mogą także pełnić funkcje serwerów, może być konieczne wyposażenie ich w bardziej wydajne elementy. Z technicznego punktu widzenia nie ma przeszkód w kupieniu ,,z półki" standardowego komputera osobistego i użycia go jako serwera, jeśli tylko posiada wystarczającą ilość zasobów do uruchomienia oprogramowania serwera. Jednak większość producentów komputerów oferuje konstrukcje specjalnie zaprojektowane do pracy w roli serwera. Te maszyny mogą posiadać specjalizowane elementy zaprojektowane do pracy przy dużym obciążeniu i posiadające dużą odporność na błędy, jednak w rezultacie za taki sprzęt trzeba zapłacić dużo więcej.
Stacje robocze Konfiguracja komputera osobistego, który ma pracować jako stacja robocza, zależy głównie od systemu operacyjnego, jakiego masz zamiar użyć. Na przykład DOS i Windows 3.1 doskonale radzą sobie przy 8 MB pamięci RAM, Windows 9x wymaga przynajmniej od 16 do 32 MB RAM, zaś komputery z Windows NT powinny posiadać co najmniej 32 MB pamięci RAM. Komputer z systemem Windows NT powinien posiadać także szybszy procesor oraz dużo więcej miejsca na dysku. Obecnie trudno jest kupić komputer, który nie byłby wyposażony co najmniej w procesor Pentium, jednak w przypadku stacji roboczych dąży się do użycia wolniejszych (i znacznie tańszych) wersji tego procesora. Jednak dużą różnicę pomiędzy stacją roboczą a samodzielnym systemem stanowi fakt, że część lub większość potrzebnych zasobów jest dostępna poprzez sieć. Z tego powodu, jeśli na przykład zamierzasz głównie wykorzystywać dane umieszczone na serwerze, możesz wyposażyć stację roboczą w mniejszy i tańszy dysk twardy. W podobny sposób możesz rozważyć możliwość rezygnacji z napędu CD-ROM, jeśli tylko zapewnisz dostęp do takiego napędu pracującego gdzieś w sieci. Powinieneś także wziąć pod uwagę środowisko, w jaki stacja robocza zostanie wykorzystana. Być może nie najlepszym pomysłem będzie wyposażanie jej w kartę dźwiękową i głośniki w przypadku, gdy w pojedynczym pomieszczeniu będzie pracować kilka komputerów. Ponadto, w przypadku ograniczonej ilości wolnego miejsca na biurku, użytkownicy z pewnością docenią komputery o jak najmniejszych obudowach.
Serwery Z dużym prawdopodobieństwem, serwer sieciowy będzie komputerem stanowiącym szczyt techniki, z najszybszym dostępnym procesorem, mnóstwem pamięci RAM oraz ogromną ilością miejsca na dyskach. Serwery muszą być komputerami dobrej jakości, przeznaczonymi do ciągłej pracy przy dużym obciążeniu, gdyż obsługując dużą firmową sieć, wykonują o wiele więcej pracy niż przeciętna stacja robocza. Sam możesz użyć klawiatury serwera tylko parę razy dziennie lub raz na kilka dni, okazjonalnie jedynie spoglądając na ekran. Jednak procesor i twardy dysk serwera pracują właściwie bez przerwy, odpowiadając na żądania pochodzące od wszystkich stacji roboczych w sieci lokalnej.
Procesory w serwerach Procesor w serwerze powinien być najbardziej zaawansowany i najszybszy, na jaki możesz sobie pozwolić. Obecnie zalecany jest procesor Pentium II, ale prędzej czy później pojawią się kolejne modele. Serwer pracuje wielozadaniowo w stopniu dużo większym niż jakakolwiek stacja robocza, tak więc im szybszy procesor, tym bardziej efektywny staje się serwer. Jednak przy zakupie sprzętu należy brać pod uwagę także pewność jego działania. Serwer nie jest miejscem, w którym powinno się testować technologiczne nowinki
Pamięć w serwerach Serwery często wymagają dużych ilości pamięci, dużo więcej niż stacje robocze. Obecnie minimum stanowi 256 MB pamięci RAM, ale może być wymagana większa ilość pamięci, w zależności od oprogramowania, jakiego chcesz użyć, oraz od przestrzeni dyskowej, jaką zapewnia serwer. Zarówno Windows NT, jak i NetWare działają lepiej, jeśli mają do dyspozycji więcej pamięci, niż przewiduje minimum. Przy zakupie serwera należy także sprawdzić ilość gniazd pamięci na płycie głównej i maksymalną ilość pamięci, jaką można w nich zainstalować. Sprawdź także, jak skonfigurowana jest pamięć dostarczana z komputerem. Maszynę z pojedynczą pamięcią DIMM 64 MB jest dużo łatwiej rozbudować niż komputer z czterema modułami po 16 MB zajmującymi wszystkie cztery gniazda. H Patrz „Pamięć fizyczna", str. 396
Dyski stosowane w serwerach Twarde dyski są często najważniejszą (i najdroższą) częścią serwera. Udostępnianie plików jest jednym z najważniejszych powodów istnienia komputerów sieciowych, więc dyski twarde serwera powinny być niezwykle odporne i pewne, a także przygotowane do szybkiej obsługi wielu użytkowników jednocześnie. Z tego powodu w dzisiejszych serwerach preferuje się dyski typu SCSI, a nie dyski typu IDE. H Patrz „Wprowadzenie do SCI" str. 917 Twarde dyski powinny być duże i szybkie, choć w pewnych przypadkach kierowanie się najwyższą dostępną pojemnością nie jest najlepszym kryterium. Gdy stwierdzisz, że serwer będzie przetwarzał żądania dostępu do plików pochodzące od wielu użytkowników równocześnie, o wiele efektywniejsze może być zastosowanie dziewięciu 1-gigabajtowych dysków SCSI niż jednego dysku 9 GB. Dzięki temu, zamiast oczekiwać w kolejce na obsługę, żądania zostaną rozprowadzone na kilka różnych dysków. Oprócz standardowych dysków twardych, istnieją także inne urządzenia pamięci masowej, zaprojektowane specjalnie dla serwerów. Macierze dyskowe mogą się składać z wielu dysków, korzystając przy tym z tzw. mirroringu i technologii RAID (Redundant Array of Inexpensive Disks, nadmiarowej macierzy tanich dysków) w celu zapewnienia dużej odporności na błędy. W systemach stosujących te technologie są automatycznie tworzone kopie danych na różnych dyskach, tak że nawet w przypadku awarii jednego z dysków wszystkie dane użytkownika pozostają dostępne. W przypadku niektórych macierzy, dyski można wymieniać także na gorąco, wymieniając uszkodzony dysk przy nieprzerwanej pracy serwera.
Choć serwer zwykle posiada napęd CD-ROM służący do instalowania oprogramowania, powinieneś zdecydować się także na dodatkowe napędy CD-ROM, udostępniane użytkownikom poprzez sieć. Obecnie na rynku istnieje wiele urządzeń umożliwiających zmianę płyt, dzięki którym użytkownicy mogą mieć stały dostęp do dużych ilości informacji zapisanych na płytach CD-ROM Urządzenie zmieniające płyty CD może pomieścić wiele płyt i automatycznie umieszczać je w jednym lub kilku napędach CD-ROM. Macierz napędów CD-ROM to zestaw napędów w pojedynczej obudowie, wymagającej także tylko pojedynczego źródła zasilania. Macierz napędów jest droższa od urządzenia do zmiany płyt, ale w jej przypadku wszystkie dyski są dostępne natychmiast
Kopie serwerów Jeśli cenisz sobie dane zapisane na serwerze, konieczne staje się regularne tworzenie kopii zapasowych dysków serwera. Do tego celu prawdopodobnie zechcesz zainstalować w serwerze napęd taśm podłączony do interfejsu SCSI. Nie każdy serwer wymaga własnego napędu taśmy, a to dzięki możliwościom oprogramowania, które najczęściej potrafi wykonać na jednym urządzeniu kopie dysków z różnych serwerów.
Zasilanie serwerów W przypadku serwera zasilanie jest ważnym, lecz często niedocenianym zagadnieniem. Tak jak w przypadku każdego komputera osobistego, musisz mieć pewność, że zasilanie jest w stanie dostarczyć odpowiednią ilość mocy do działania wszystkich urządzeń w systemie. W przypadku serwera może to wymagać nawet 400 i więcej watów, jako że serwer zwykle zawiera więcej dysków niż stacja robocza. Awarie zasilania często mogą powodować trudne do wykrycia problemy w innych częściach systemu. Serwer plików może wstrzymać pracę wyświetlając informację o uszkodzonej pamięci, podczas gdy przyczyną problemu (oczywiście obok prawdziwej awarii pamięci) może być nieodpowiednie zasilanie. H Patrz „Power Supply Troubleshooting", str. 525 Wentylatory w zasilaczach czasami zatrzymują się lub zapychają kurzem i brudem. W rezultacie komputer się przegrzewa i albo się zawiesza, albo wykonuje nieprzewidziane operacje. Oczyszczanie wentylatorów - oczywiście po wyłączeniu wtyczki z kontaktu -powinno stać się częścią regularnej opieki nad serwerem. Niektóre serwery posiadają dodatkowe wentylatory i źródła zasilania zapewniające działanie komputera nawet w wyniku awarii zasilania. W niektórych modelach dodatkowe źródła zasilania można wymieniać „na gorąco", co dodatkowo zwiększa odporność sieci na przestoje wywołane awariami. Powinieneś także podjąć kroki w celu zabezpieczenia serwera przed zmianami napięcia w sieci zasilającej. Aby zapewnić jak najpewniejszą i najstabilniejszą pracę serwera, powinieneś zastosować podtrzymywacz napięcia, czyli tzw. UPS (uninterruptible power supply). UPS nie tylko zapewnia zasilanie w wypadku awarii prądu, ale także stabilizuje napięcie i chroni serwer przed jego fluktuacjami. Wiele UPS-ów posiada kable łączące serwer z komputerem (poprzez port szeregowy) oraz oprogramowanie automatycznie zamykające system operacyjny, jeśli awaria zasilania trwa dłużej niż określony czas. To zapewnia, że dane na serwerze nie zostaną uszkodzone w wyniku niewłaściwego zamknięcia systemu
Klawiatury, monitory i myszy dla serwerów Jedyną dziedziną, w której możesz bezpiecznie zaoszczędzić nieco gotówki przy kupnie serwera, są elementy interfejsu użytkownika, takie jak klawiatura, monitor i mysz (jeśli w ogóle). Ponieważ z tych elementów korzysta się dużo rzadziej niż w przypadku stacji roboczej, możesz kupić tańsze urządzenia o niższej jakości. Typowy serwer plików zwykle całymi dniami pracuje bez żadnej interwencji ze strony administratora, więc możesz spokojnie wyłączać monitor na te długie okresy.
Karty sieciowe Karty sieciowe serwera są jego połączeniem ze wszystkimi stacjami roboczymi w sieci. Tędy wchodzą i wychodzą wszystkie żądania i inne sieciowe komunikaty. Rysunek 11.14 przedstawia przykładową kartę sieciową. Jak można się domyślać, jest to bardzo obciążony element serwera. Karty sieciowe w serwerach i stacjach roboczych są najczęściej jednakowe. Nie ma sensu instalowanie karty o wysokiej prędkości transmisji, gdy nie jest ona dopasowana do wolniej działających kart stacji roboczych. Jedyną różnicą może być to, że do serwera czasem podłącza się kilka kart sieciowych, łączących go z wieloma węzłami sieci. Rysunek 11.14. Karta sieciowa serwera wysyła i odbiera wiadomości od wszystkich stacji roboczych
Wszystkie karty sieciowe wykorzystują protokół niskiego poziomu, taki jak Ethernet, Token Ring czy inne protokoły warstwy łącza danych (data-layer protocol). Wiadomo, że istnieją karty sieciowe działające szybciej od innych, mimo że korzystają z tego samego protokołu. Co ma na to wpływ? Wiele czynników. Między innymi ilość wbudowanej pamięci RAM, mikroprocesor oraz wielkość gniazda interfejsu (karta z 32-bitowym gniazdem przenosi więcej danych jednocześnie w porównaniu z kartą z gniazdem 8-bitowym). Gniazda 32-bitowe mogą być typu EISA, VLB lub PCI. W komputerach z procesorami Pentium- powszechnie stosuje się magistrale PCI. Szybka i o dużych możliwościach karta sieciowa jest najlepszym rozwiązaniem dla serwera plików, należy jednak sprawdzić jej kompatybilność z kartami zainstalowanymi w stacjach roboczych.
W większości systemów karty sieciowe umieszcza się w gniazdach rozszerzeń na płycie głównej. Niektóre komputery posiadają karty sieciowe zintegrowane z płytą główną. Rozwiązanie to jest popularniejsze w stacjach roboczych, gdyż większość administratorów woli samodzielnie dobrać karty pracujące w serwerach. Karty sieciowe Ethernet i Token Ring posiadają własne adresy w sieci, którymi posługuje się warstwa łącza danych (data-layer protocol). Pakiet znajduje swój cel, gdyż w jego nagłówku jest zarówno informacja o nadawcy, jak i o jego odbiorcy. Ceny kart sieciowych wahają się w szerokich granicach. Od 100 do 1000$. Co otrzymujemy za takie pieniądze? Przede wszystkim prędkość. Im szybciej karta jest w stanie przesłać informacje, tym szybciej serwer może nadesłać odpowiedź na polecenia transmisji
Szybkość transmisji w sieciach LAN Prędkość sieci komputerowej mierzy się w megabitach na sekundę (Mb/s). Ponieważ bajt informacji składa się z 8 bitów, można podzielić megabity przez 8, aby dowiedzieć się, ile znaków (bajtów) na sekundę może teoretycznie obsłużyć sieć. Załóżmy, że chcesz przenieść przez sieć całą zawartość dyskietki 3,5" 720 kB. Prędkość transmisji w sieci wynosi 4 Mb/s. W wyniku dzielenia 4 Mb/s przez 8 otrzymasz transmisję - ok. 500 kB w ciągu sekundy. Jest to średnia prędkość średniej jakości dysku twardego. Dla napędu dyskietek wynosi ona 500 kb/s. Tak więc przeniesienie tych danych z dyskietki zajmie przynajmniej kilka sekund. W praktyce sieć jest wolniejsza niż jej prędkość transmisji; można powiedzieć, że nie jest szybsza od swojego najwolniejszego elementu. Gdybyś chciał przenieść 720 kB z dysku twardego stacji roboczej na serwer, czas potrzebny na to byłby sumą czasu odczytu z dysku stacji roboczej, czasu przetwarzania stacji roboczej i czasu przetwarzania potrzebnego procesorowi i dyskom serwera. Prędkość odczytu danych z twardego dysku, która jest czynnikiem najbardziej spowalniającym kopiowanie danych na serwer, ustala prędkość transferu danych ze stacji do serwera. Żądania innych stacji nakładają się na twoje żądania i sumaryczny czas przesyłania danych będzie jeszcze dłuższy, ponieważ inni użytkownicy korzystają z sieci w tym samym czasie. Transfer danych z dyskietki trwałby jeszcze dłużej ze względu na mniejszą prędkość odczytu dyskietki w porównaniu z odczytem z dysku twardego. Stacja korzysta z sieci przez krótkie chwile przy odczycie danych z dyskietki. Nie może też przesłać danych szybciej niż z prędkością odczytu danych z dyskietki
Złącza kart sieciowych Karty sieciowe Ethernet posiadają gniazdo BNC, 15-pinowe gniazdo DB15 lub gniazdo RJ45 (wyglądające jak większe gniazdo telefoniczne), a czasami kilka z nich. Karty Token Ring mogą mieć 9-pinowe gniazdo DB9 lub czasami gniazdo RJ45. Na rysunku 11.15 przedstawiamy kartę Token Ring z obydwoma typami gniazd.
Rysunek 11.15. Karta sieciowa RJ45 i DB9
Token Ring firmy Thomas-Comrad 16/4 (z gniazdami
Zadania karty sieciowej Każda karta sieciowa otrzymuje wszystkie dane, które są transmitowane poprzez sieć komputerową. Jednak akceptuje jedynie te dane, które są adresowane bezpośrednio do niej. Dane te są następnie transmitowane do procesora, który troszczy się o ich dalszy los Gdy komputer chce przesłać dane, czeka określony czas (który zależy od używanej warstwy łącza danych - data-layer protocol), a następnie przesyła je do strumienia danych. System odbierający informuje nadawcę, że odebrał dane w całości albo że należy transmisję powtórzyć. Prócz tego karty sieciowe biorą czynny udział w przygotowaniu danych do transmisji sieciowej. Wykonują siedem głównych czynności podczas wysyłania lub odbioru ramki z danymi. Podczas odbioru obowiązuje podana niżej kolejność, przy odbiorze zaś - kolejność odwrotna. 1. Przekazywanie danych. Dane są przekazywane z pamięci RAM komputera do karty sieciowej lub z karty sieciowej do pamięci komputera poprzez DMA, współdzieloną pamięć lub programowane wyjście/wejście. 2. Buforowanie. Podczas przetwarzania danych w karcie sieciowej są one prze-chowywane w buforze, co daje dostęp do całej ramki jednocześnie, a prócz tegobufor umożliwia karcie sterowanie różnicą pomiędzy prędkością sieci a prędkością przetwarzania danych przez komputer. 3. Formowanie ramki. Karta sieciowa musi podzielić dane na określone kawałki(lub poskładać je przy odbiorze). W sieci Ethernet kawałki te mają po ok. 1500bajtów, w sieci Token Ring - 4 kB. Karta poprzedza dane nagłówkiem ramkii dodaje do niej zakończenie.
Nagłówek i zakończenie stanowią dodatek warstwy fizycznej (przy odbiorze są usuwane przez kartę). Teraz istnieje już gotowa do transmisji ramka. 4. Dostęp do kabla. W sieciach kolizyjnych, jak Ethernet, karta sieciowa zalewnia, że linia jest wolna przed rozpoczęciem transmisji, a w przypadku kolizji powtórnie wysyła dane. W sieciach typu Token Ring karta czeka na pozwolenie nadania informacji. (Działania te nie występują przy odbiorze danych). 5. Przetwarzanie sygnatu z równoległego na szeregowy. Dane w buforze są wysyłane lub odbierane z kabla w postaci szeregowej, jeden bit za drugim. Przetwarza nie to jest wykonywane tuż przed transmisją (albo zaraz po odbiorze).
6.Kodowanie/Dekodowanie.Sygnał elektryczny reprezentujący wysyłane lub otrzymywane dane jest formowany. Karty Ethernet wykorzystują metodę zwaną kodowaniem Manchester (Manchester encoding), a karty Token Ring – trochę zmienioną metodę zwaną Differential Manchester. Zaletą tych metod jest dodanie do danych informacji synchronizującej. Zamiast reprezentowania logicz-nego O jako braku sygnału i logicznej jedynki jako obecności sygnału, sygnały logiczne są reprezentowane przez zmiany polaryzacji.
7.Wysyłanie/odbieranie impulsów. Zakodowane impulsy tworzące dane (ramki) są wzmacniane i wysyłane przez kabel. (Podczas odbioru impulsy są przekazywane Oczywiście wykonanie wszystkich powyższych czynności zajmuje tylko ułamek sekundy. Podczas czytania powyższego opisu mogły zostać przesłane przez sieć tysiące ramek .do dekodowania). Karty sieciowe i oprogramowanie wspomagające rozpoznają błędy, jakie pojawiają się w przypadku zakłóceń, kolizji (w przypadku sieci Ethernet) lub awarii sprzętu powodującej uszkodzenie części ramki. Błędy są zwykle wykrywane przy użyciu dodatkowych danych zawartych w ramce zwanych cyclic redundency check (CRC). CRC jest sprawdzany przez stację odbierającą-jeśli wyliczony przez nią CRC nie będzie zgodny z CRC zawartym w ramce, stacja przekazuje do stacji wysyłającej ramkę informację o błędzie i prośbę o ponowną jej transmisję
Kable i złącza Okablowanie sieci komputerowej bazuje na trzech głównych typach przewodów. Jest to tzw. „skrętka" (wraz z jej podtypami, z ekranem i bez- STP, UTP, lOBaseT lub lOOBaseT), kabel koncentryczny cienki i gruby (10Base2 oraz lOBaseS) oraz światłowody. Rodzaj okablowania w dużej mierze zależy od warstwy protokołu danych (data-layer protocol), którego użyje się przy projektowaniu sieci. Wszystkie główne protokoły (Ethernet czy Token Ring) dość ściśle definiują parametry kabli - jako ich elementu składowego. Teoretycznie, według modelu OSI, okablowanie powinno zależeć jedynie od warstwy fizycznej. Jednak tak nie jest - i jest to jeden z przykładów odstępstw od założonego modelu OSI. Skrętka to kabel niejako opisany przez swą nazwę: to izolowane kable w ochronnej osłonie skręcone wokół siebie określoną ilość razy na jednostkę długości. Skręcenie kabli redukuje zakłócenia elektromagnetyczne przesyłanych sygnałów. W skrętce ekranowanej ekran otacza każdą parę przewodów, zwiększając odporność kabla na zakłócenia. Na pewno spotkałeś się ze skrętką nie ekranowaną, wykorzystywaną w kablach telefonicznych. Na rysunku 11.16 przedstawiam skrętkę nie ekranowaną, a na rysunku 11.17 - skrętkę ekranowaną
Rysunek 11.16. Skrętka nie ekranowana
Rysunek 11.17. Skrętka ekranowana
Skrętka ekranowana a nie ekranowana Na początku wykorzystywania kabli do łączenia komputerów wydawało się, że ekranowanie kabla będzie najlepszym sposobem na zmniejszenie zakłóceń i zapewnienie większej szybkości przesyłu danych. Jednak odkryto, że skręcanie kabli jest bardziej efektywne. W wyniku tego starsze sieci pracują wykorzystując kable ekranowane, a nowsze nie ekranowane. Kable ekranowane posiadają również uziemienie sygnału rozwiązane w specjalny sposób: jeden i tylko jeden koniec kabla może być podłączony do uziemienia; problemy powstawały przy nieświadomym tworzeniu pętli uziemienia powstających przy podłączeniu obydwu końców lub kiedy ekran działał jak antena w przypadku braku uziemienia. Pętla uziemienia to sytuacja, gdy dwa różne sygnały uziemienia są ze sobą połączone. Nie jest to pożądana sytuacja ze względu na różnice potencjałów każdego z nich. Powstaje więc obwód elektryczny o bardzo małym napięciu i bardzo dużym prądzie, co może powodować przeciążenie elementów i być przyczyną pożaru.
Kabel koncentryczny Kable koncentryczne są bardzo powszechne, np. jako łączące anteny do radia czy telewizora. W zależności od średnicy kabla, mówimy o kablu cienkim lub grubym. Standardowy kabel ethernetowy (gruby koncentryk - rzadko dziś używany) jest grubości kciuka, a cienki kabel (nazywany też Thinnet lub CheaperNet) - trochę cieńszy od małego palca. Grubszy kabel posiada większą odporność na zakłócenia, uszkodzenia fizyczne i wymaga specjalnego wtyku (yampire tąp) do podłączenia do stacji roboczej. Chociaż cienki kabel koncentryczny przenosi sygnały na mniejsze odległości w porównaniu z kablem grubym, wykorzystuje proste i tanie gniazdo BNC (Bayonet-Neill-Concelman) -które kiedyś było standardem. Cienki kabel koncentryczny jest podłączany bezpośrednio z tyłu każdego komputera w sieci i z reguły jest o wiele prostszy w instalacji niż Thicknet, ale za to jest bardziej podatny na zakłócenia i fizyczne uszkodzenia Rysunek 11.18. Kominek (T-Connector) kabla koncentrycznego Ethernet
Rysunek 11.19. Kabel koncentryczny
Światłowód Światłowód do przenoszenia informacji zamiast prądu elektrycznego wykorzystuje impulsy świetlne. Jest więc całkowicie odporny na zakłócenia elektromagnetyczne ograniczające długość kabla miedzianego. Tłumienie (osłabianie sygnału podczas przesyłania kablem) jest również mniejsze, co pozwala wysyłać dane na duże odległości z dużą prędkością. Jednak jest to technologia droga i trudna w instalacji. Niewiele osób potrafi łączyć światłowody, instalować gniazdka i wykorzystywać dostępne narzędzia diagnostyczne do wyszukiwania usterek. Światłowód jest czasami potrzebny do łączenia ze sobą budynków w sieciach rozległych z dwóch bardzo ważnych powodów. Po pierwsze, światłowód może przenosić dane na odległość do 2,2 km, co jest odległością dużo większą od tej, na jaką działa kabel miedziany. Drugi powód wynika z jego konstrukcji: eliminuje problem różnicy poziomów uziemienia Światłowód jest prosty w projekcie, jednak nie dopuszcza złych połączeń. Z reguły składa się ze szklanego rdzenia o średnicy mierzonej w mikronach, otoczonego mocną, szklaną koszulką. Ona z kolei pokryta jest ochronną osłoną. Pierwsze światłowody były wykonywane ze szkła, ale robiono je też z plastyku. Źródłem sygnału dla światłowodu jest dioda elektroluminescencyjna (LED - light-emitting diodę); informacja jest kodowana przez zmianę natężenia światła. Detektor na drugim końcu kabla zamienia odebrany sygnał z powrotem na impulsy elektryczne. Rysunek 11.20. Światłowód do przenoszenia informacji wykorzystuje światło. Wtyki i gniazda ST są powszechnie używane do łączenia światłowodów
Topologie sieci komputerowych Każda ze stacji roboczych w sieci komputerowej jest połączona za pomocą kabla (lub innego medium) z innymi stacjami i z jednym lub kilkoma serwerami. Czasami przewód biegnie od komputera do komputera przechodząc przez wszystkie stacje i serwery. Można więc mówić o topologii magistrali głównej; patrz rysunek 11.21. (Topologia to prosty opis sposobu, w jaki stacje robocze i serwery są ze sobą fizycznie połączone). Wadą takiego układu jest to, że jeżeli jedna stacja traci połączenie z siecią, to wszystkie stacje znajdujące się za nią również mogą nie mieć się z nią łączyć.
Czasami do każdej stacji doprowadzone są osobne kable z jednego centralnego urządzenia, tzw. huba lub koncentratora. Rysunek 11.22 przedstawia taką konfigurację, zwaną topologią gwiazdy. Może ona występować również w wersji pokazanej na rysunku 11.23. Topologia magistrali zużywa wprawdzie mniejszą ilość kabla, ale jest najtrudniejsza w diagnozowaniu w przypadku problemów. Rysunek 11.21. Topologia magistrali głównej – wszystkie urządzenia w sieci podłączone do wspólnego kabla
Innym układem jest pierścień, w którym każda stacja jest połączona z następną, a ostatnia z pierwszą (można powiedzieć, że jest to topologia magistrali z połączonymi końcami). Jednak pierścień nie jest fizycznie widoczny, gdyż znajduje się wewnątrz huba (nazywanego w sieciach Token Ring multistation access unit lub MSAU). Sygnał tworzony przez jedną stację biegnie do huba, potem do następnej stacji i znowu do huba. Dane przechodzą przez wszystkie stacje po kolei, aż dotrą z powrotem do komputera, który je wysłał. Tak więc, choć widoczne okablowanie to topologia gwiazdy, dane krążą w pierścieniu. Ten układ nosi nazwę logicznego pierścienia. Pierścień logiczny ma kilka istotnych zalet w porównaniu z pierścieniem fizycznym. Jest odporniejszy na awarie. Awaria jakiegokolwiek fragmentu sieci przy połączeniu w pierścień skutecznie uniemożliwia działanie całej sieci. Sieć typu Token Ring automatycznie usuwa z sieci wadliwie funkcjonujący komputer umożliwiając zachowanie swojej integralności. Tych kilka form topologicznych można mieszać. Na przykład dość często łączy się kilka koncentratorów tworzących własne gwiazdy za pomocą sieci magistralowej - tworząc połączenie star-bus - gwiazda-magistrala. Pierścienie można łączyć w taki sam sposób Rysunek 11.22. Topologia gwiazdy - komputery i inne urządzenia podłączone do jednego urządzenia, najczęściej serwera plików
Prowadzenie kabli Najdroższym elementem każdej sieci jest ułożenie kabli. W każdym miejscu odgałęzienia potrzebne są specjalne połączenia. Czasami niezbędne są różne dodatkowe urządzenia, jak huby czy repeatery. Kilka firm, m.in. Motorola, wytwarza sieci nie potrzebujące kabli. Takie sieci komputerowe wykorzystują do przenoszenia sygnałów podczerwień lub fale radiowe. Sieci te jednak nie posiadają odpowiedniej prędkości ani niezawodności niezbędnej do standardowego użytku Rysunek 11.23. Inne rozwiązanie topologii gwiazdy - połączenie komputerów i innych urządzeń z jednym (lub więcej) centralnym hubem
Prace związane z planowaniem ułożenia kabli, ich cięciem, mocowaniem końcówek i samym układaniem, najlepiej powierzyć specjalistycznej firmie. Jeżeli połączenia będą niedokładne, mogą pojawić się echa sygnałów powodujące błędy transmisji. Aby sieć działała prawidłowo, musi być spełnionych wiele różnych wymagań. Kabel koncentryczny kosztuje ok. 45 centów za metr, natomiast skrętka ekranowana - ok. 75 centów za metr. Jest to stosunkowo niewielki koszt, nawet przy dużej sieci, i jest bardzo mały w porównaniu z wydatkami związanymi z instalacją kabla, wynoszącymi ok. 45 dolarów za godzinę pracy instalatora. Nasuwający się stąd wniosek jest taki, aby zlecić instalację o wiele większej ilości kabla, niż to początkowo jest potrzebne - nie będzie trzeba wzywać instalatora ponownie. Samodzielnie można instalować kable tylko w przypadku, gdy dotyczy to kilku komputerów na sąsiednich biurkach i nie ma konieczności przewiercania się przez ściany. Przepisy budowlane prawie zawsze wymagaj ą stosowania specjalnego kabla (plenum cable) o podwyższonej odporności na ogień. Powierzając instalację okablowania specjalistycznej firmie, która powinna znać odpowiednie przepisy, nie ryzykujesz, że inspektor budowlany zakwestionuje rodzaj kabla i każe ci go wymienić.
Wybór właściwego kabla Zapotrzebowanie użytkowników na prędkość transmisji wciąż rośnie i aby je spełnić, rozwijane są nowe systemy sieciowe. Koniecznością staje się również badanie możliwości samych kabli będących jedną z najważniejszych części infrastruktury sieci komputerowej. W większości sieci wykorzystuje się obecnie Ethernet na skrętce nie ekranowanej.
Wykorzystuje się kable identyczne jak w sieciach telefonicznych - znane pod nazwą kabla kategorii 3 (lub voice grade UTP) - według skali określającej możliwości transmisyjne kabla. Kabel ten nosi oznaczenie 24 AWG (American Wire Gauge - amerykański standard pomiaru średnicy kabla), jest wykonany z ocynkowanej miedzi z twardymi przewodami, o impedancji 100-105 omów, posiadający przynajmniej sześć skręceń na metr. Kabel kategorii 3 może być stosowany w sieciach pracujących z prędkością do 16 Mb/s Jednak nowsze i szybsze sieci wymagają kabli o lepszych parametrach. Technologia Fast Ethernet pracująca z prędkościami 100 Mb/s wykorzystuje taką samą liczbę przewodów jak standardowy Ethernet, ale wymaga większej odporności na przesłuchy (crosstalk) i tłumienie. Zapewnia to kabel kategorii 5. Jeżeli przy tworzeniu sieci możesz skorzystać z już położonego kabla, może być to kabel kategorii 3, jednak jeśli kładziesz nowe okablowanie, polecam kabel kategorii 5. Nawet jeżeli dzisiaj nie wykorzystujesz szybkiej sieci, w przyszłości może będziesz chciał z niej korzystać Łańcuch jest tak silny, jak jego najsłabsze ogniwo - i ta sama zasada ma zastosowanie w łączności. Jeżeli zdecydujesz się na okablowanie spełniające założenia klasy 5, sprawdź, czy zakładane gniazdka, łączniki i inne urządzenia także spełniają tę normę Projektanci sieci komputerowych uwielbiają obchodzić ograniczenia. Producenci elementów Ethernetu umożliwiają stworzenie sieci Ethernet w konfiguracji gwiazdy, gałęzi i drzewa, które omijają wcześniej wspomniane ograniczenia. W złożonej sieci mogą być tysiące stacji. Sieci LAN to sieci lokalne, gdyż karty sieciowe i inne składniki sieci nie mogą wysłać informacji dalej niż na kilkaset metrów. W tabeli 11.14 przedstawiłem graniczne zasięgi dla różnych rodzajów kabla. Dodatkowo weź pod uwagę, że do pojedynczego segmentu z cienkim kablem koncentrycznym można podłączyć do 30 komputerów, z grubym kablem koncentrycznym - do 100 komputerów, do segmentu z kabla UTP w sieci Token Ring powyżej 72 komputerów, do segmentu kabla STP w sieci Token Ring - ponad 260 komputerów
Protokoły warstwy łącza danych IEEE (The Institute of Electrical and Electronic Engineers) określił standardy obydwu sieci, znane jako IEEE 802.3 (Ethernet) i 802.5 (Token Ring). Zauważ, że popularne nazwy Ethernet i Token Ring odnoszą się do wcześniejszych wersji tych protokołów, na których bazują standardy IEEE. Występują małe różnice w definicjach ramek pomiędzy prawdziwym Ethernetem i prawdziwym standardem IEEE 802.3. Jeżeli mówimy o standardach, to karty sieciowe Token Ring 16 Mb/s odpowiadają standardowi 802.5. Rzecz jasna, nie wszystkie sieci spełniają wymagania standardów 802.3 lub 802.5. Najbardziej znana z nich to ARCnet, dostępny w takich firmach jak Datapoint Corporation, Standard Microsystems i Thomas-Conrad. Inne sieci to StarLan (firmy AT&T), YistaLan (firmy AllenBradley), LANtasic (firmy Artisoft), Omninet (firmy Corvus), PC Net (IBM), Pronet (firmy Proteon). Jednak wszystkie wymienione tu standardy można uznać za archaiczne i właściwie nie są wykorzystywane do tworzenia nowych sieci.
ARCnet ARCnet to jeden z najstarszych typów kart sieciowych. Został stworzony przez Datapoint Corporation, za którą podążyło wielu producentów. ARCnet jest bardzo wolny w po-równaniu z dzisiejszymi standardami, ale mniej podatny na błędy przy instalacji. Znany jest z dużej niezawodności; problemy z kablami i kartami są proste do diagnozowania. ARCnet jest tańszy od Ethernetu, jednak ceny kart Ethernet w ostatnich latach tak spadły, że ta różnica nie jest istotna. ARCnet pracuje w sieciach zbliżonych do Token Ring, lecz wolniej - ok. 2,5 Mb/s. Podrozdział „Karty sieciowe Token Ring" wyjaśnia podstawowe zasady działania sieci ARCnet i Token Ring.
Karty sieciowe Ethernet Karty ethernetowe, wytwarzane przez wielu producentów, są najpowszechniej używanymi kartami sieciowymi. Sieci wykorzystujące Ethernet pozwalają na podłączenie zróżnicowanego sprzętu: stacji roboczych UNIX, komputerów Apple, IBM PC i kompatybilnych. Ethernet może pracować z trzema rodzajami okablowania: cienkim (Thinnet) i grubym (Thicknet) kablem koncentrycznym oraz ze skrętką nieekranowaną (UTP). Gruby kabel koncentryczny cechuje daleki zasięg i wysoka cena. Tradycyjną prędkością Ethernetu jest 10 Mb/s, ale są już dostępne karty przeznaczone do pracy z prędkością 100 Mb/s. Te tak zwane karty Fast Ethernet są wytwarzane m.in. przez firmy Intel, Thomas-Conrad. Są również dostępne karty pracujące z obydwoma prędkościami - umożliwiają one stopniową (rozłożoną w czasie) rozbudowę sieci poprzez instalowanie nowych kart sieciowych, hubów. Karty 100 Mb/s pracują z tą prędkością tylko w przypadku komunikacji z inną szybką kartą poprzez szybkiego huba Specyfikacja Ethernet składa się z trzech elementów: * Warstwa fizyczna. Zbiór wytycznych dotyczących kabli i ich instalowania * Ramka Ethernet. Jest to format ramki definiujący, jaka informacja znajduje sięw jej nagłówku oraz w stopce. Zawiera ona adres systemu wysyłającego, systemu,który ma informację otrzymać, oraz kody kontrolne CRC * Kontrola dostępu do medium transmisyjnego. Jest to mechanizm pozwalający regulować dostęp do jednego środka transportu przez wiele komputerów. Ponieważ komputery w sieci LAN współdzielą jedno łącze (najczęściej kabel), musi istnieć kontrola ruchu w sieci. Gdy dwa systemy nadadzą pakiet jednocześnie, nastąpi kolizja, powodująca zniszczenie transmitowanych danych. Schemat postępowania w takiej sytuacji można określić jako kontrolę dostępu do medium transmisyjnego. Sieć Ethernet używa mechanizmu CSMA/CD (Carrier Sense, Multiple Access with Collision Detection - mechanizm wielodostępny z wykryciem kolizji). Gdy komputer w sieci Ethernet chce rozpocząć nadawanie, najpierw nasłuchuje, czy sieć jest w danym momencie używana. Jeśli nadaje akurat inny komputer, system odczekuje moment, po czym nasłuchuje ponownie. Jeśli sieć jest już dostępna, system nadaje swoje dane. Ta metoda nie jest jednak całkowicie niezawodna, gdyż istnieje możliwość, że dwa komputery wykryją, iż sieć jest dostępna, i jednocześnie rozpoczną nadawanie, w wyniku czego dochodzi do kolizji. Kolizje są częstym i akceptowanym zjawiskiem w lokalnych sieciach Ethernet, a duża część rozwiązań tej technologii dotyczy właśnie wykrywania kolizji. Gdy komputer stwierdzi, że transmitowane dane kolidują z innym pakietem, odczekuje chwilę o losowej długości, po czym ponownie nadaje ten sam pakiet. Ponieważ czas oczekiwania dwóch komputerów uczestniczących w kolizji jest różny, szansę na powstanie kolejnej kolizji są znacznie zredukowane. O ile pewna liczba kolizji jest w sieciach Ethernet czymś normalnym i oczekiwanym, to jednak przy dużym ruchu w sieci częstotliwość kolizji znacznie wzrasta, w związku z czym wydłuża się także czas odpowiedzi. W nasyconej sieci Ethernet komputery mogą poświęcać więcej czasu oczekiwaniu na zwolnienie sieci niż samemu nadawaniu danych. Z tego powodu ważne jest, aby nie przepełniać pojedynczego segmentu sieci Ethernet zbyt wieloma komputerami.
W sieciach Ethernet czynnikiem wyznaczającym limit pojemności sieci jest liczba podłączonych do niej komputerów oraz odległość pomiędzy tymi komputerami. Każdy rodzaj okablowania posiada własne ograniczenia co do długości, poza którymi konieczne jest zastosowanie tzw. repeatera, wzmacniającego poziom sygnału. Bez repeaterów mogą powstawać fale stojące (addytywne odbicia sygnału), zniekształcające sygnał i powodujące błędy. Ponieważ mechanizm wykrywania kolizji w sieciach Ethernet jest wysoce zależny od czasów przebiegu sygnałów, w jednej serii możesz mieć maksymalnie pięć dwustumetrowych segmentów kabla i cztery repeatery, przy maksymalnie trzech segmentach podłączonych do komputerów. Po przekroczeniu tych wartości czas propagacji sygnału staje się na tyle duży, że przekracza maksymalny czas przeznaczony na wykrycie kolizji. W takim przypadku komputery położone najdalej od komputera nadającego nie są w stanie stwierdzić, czy wystąpiła kolizja. Powyższa zasada nosi nazwę zasady 5-4-3 Ethernetu
Token Ring Sieci Token Ring różnią się zasadniczo od sieci Ethernet. Zaprojektowane oryginalnie przez firmę IBM do przesyłania danych z prędkością 4 Mb/s po kablu STP (ekranowana skrętka) lub UTP (nieekranowana skrętka), o logicznej konfiguracji pierścienia, zostały z czasem zmodyfikowane do przesyłania danych z szybkością 16 Mb/s. Z taką właśnie szybkością działa obecnie większość sieci Token Ring. Karty sieciowe oraz koncentratory Token Ring (MSAU) są wyraźnie droższe niż ich Ethernetowe odpowiedniki, jednak ten koszt jest zrównoważony przez ogromną szybkość protokołu i niezwykłą wydajność nawet przy bardzo dużym ruchu w sieci. Otwarcie połączenia w sieciach lokalnych Token Ring może zająć karcie nawet kilka sekund. W tym czasie koncentrator i karta sieciowa wykonują testy diagnostyczne, po których koncentrator dołącza komputer jako nowego sąsiada w sieci. Gdy komputer zostanie dołączony jako aktywna stacja robocza, łączy się z obu stron z poprzednim i następnym sąsiadem (zdefiniowanymi przez koncentrator na podstawie pozycji komputera w pierścieniu). W swojej turze twoja karta sieciowa Token Ring odbiera token (po polsku żeton -informację, że teraz jej kolej w nadawaniu lub odbiorze informacji) lub ramkę, regeneruje poziom sygnału elektrycznego i poprzez koncentrator przesyła Token lub ramkę w kierunku następnego sąsiada. Sieci Token Ring używają innego mechanizmu MAC niż sieci lokalne Ethernet, w języku angielskim określanym jako token passing - przekazywanie żetonu. W sieciach Token Ring komputery nieustannie przekazują sobie wzajemnie ów token. Jest to po prostu specjalna krótka wiadomość wskazująca, że komputer, który ją posiada, może rozpocząć nadawanie danych. Jeśli komputer nie ma żadnych danych do przekazania, natychmiast po jego odebraniu przekazuje go następnemu sąsiadowi w pierścieniu. W całym pierścieniu jedynie komputer posiadający token może transmitować sygnały. Każdy pakiet wysłany do sieci krąży po wszystkich komputerach w pierścieniu, aż do natrafienia na komputer docelowy; może także się zdarzyć, że komputer docelowy nie zostanie znaleziony i pakiet w końcu trafia do komputera, z którego został wysłany. Nadawca jest odpowiedzialny za usunięcie pakietu z sieci i wygenerowanie nowego pakietu token, aby przekazać w ten sposób kontrolę nad siecią następnemu komputerowi. Ponieważ w prawidłowo funkcjonującej sieci Token Ring nie ma możliwości, aby dwa komputery nadawały dane jednocześnie, nie występują kolizje, a ponieważ każdy komputer ma równe szansę przekazania swoich danych, wydajność sieci nie zmniejsza się nawet przy dużym ruchu. W sytuacjach specjalnych istnieje także możliwość przypisania komputerom określonych priorytetów, dzięki czemu mogą mieć częstszy dostęp do sieci. Czasem zdarza się także, że stacja robocza ulegnie na przykład zawieszeniu i „gubi" token. Gdy tak się stanie, komputery w sieci monitorują się wzajemnie i stosują specjalną procedurę (tzw. beaconing) w celu zlokalizowania źródła problemu i odtworzenia utraconego „żetonu".
Wcześniejsze zwalnianie token W bezczynnej sieci Token Ring stacje robocze przekazują sobie token. Sieć jest zajęta (przesyła informację), gdy jedna ze stacji po jego otrzymaniu wysyła dane przeznaczone dla innego komputera. Kiedy dane dotrą do celu, są i tak dalej wysyłane, aż wrócą do nadawcy, który wysyła wtedy token z powrotem w sieć. A więc do tej pory sieć ta działała jak standardowa Token Ring. Kiedy stacja robocza wysyła do serwera żądanie dostępu do pliku, składa się ono tylko z kilku bajtów, o wiele mniej, niż potrzeba do przesłania pliku do stacji. Jeśli takie żądanie musi jeszcze przejść przez wiele stacji w pierścieniu, a na dodatek ramka danych jest mała, mamy do czynienia z tzw. czasem oczekiwania - jest to opóźnienie pojawiające się, gdy dana stacja musi czekać na zakończenie transmisji przez stację ją poprzedzającą. Podczas tego czasu oczekiwania, stacja źródłowa wysyła nic nie znaczące znaki po wysłaniu ramki z danymi aż do otrzymania jej z powrotem. Typowy czas oczekiwania w sieci 4 Mb/s pozwala na przesłanie ok. 50 do 100 nie znaczących znaków, a w sieci 16 Mb/s ponad 400. Niektóre sieci Token Ring posiadają możliwość - dostępną tylko w wersjach 16 Mb/s zwolnienia token zaraz po wysłaniu danych. Następna stacja w pierścieniu przesyła dalej dane i wtedy dociera do niej token, który daje możliwość wysłania jej swoich danych. Gdybyś był w stanie przeprowadzić analizę protokołu w sieci z powyższą cechą, zobaczyłbyś, że za żądaniami plików wysyłane są i kolejne ramki z danymi, i token, zamiast długich ciągów nic nie znaczących znaków.
Technologie szybkich sieci komputerowych Jeżeli posiadasz szybkie stacje robocze i szybki serwer, będziesz chciał, aby i twoja sieć była szybka. Nawet 16 Mb/s, możliwe w sieci Token Ring, może nie wystarczać, gdy programy intensywnie korzystają z danych. Gwałtowny rozwój multimediów , oprogramowania dla grup roboczych i innych technologii, wymagających dostępu do olbrzymiej ilości danych, wymusił na administratorach sieci komputerowych rozważenie zapotrzebowania na szybkie połączenia ze stacjami roboczymi. Połączenia sieciowe z prędkościami powyżej 100 Mb/s sąjuż dostępne od kilku lat, lecz ich głównym ograniczeniem była prędkość łączy między serwerami wiążąca się z dodatkowymi kosztami. Obecnie dostępnych jest kilka nowych technologii sieciowych pracujących nawet szybciej niż 100 Mb/s. Korzystają z tego programy: serwisy finansowe ściągające dane w czasie rzeczywistym, wideo konferencje , programy do obróbki obrazu i przetwarzania grafiki wysokiej rozdzielczości.
FDDI Protokół FDDI, zaprojektowany przez X3T9.5 Task Group of ANSI (the American National Standards Institute), jest dostępny już od kilku lat. Jest znacznie młodszy od protokołów Ethernet czy Token Ring, pracuje na zasadzie przekazywania sobie głosu i ramek danych z prędkością 100 Mb/s wokół pierścienia wykonanego ze światłowodu. FDDI został tak zaprojektowany, aby w warstwie fizycznej był najbliższy standardowi IEEE 802.5. Różnice pojawiają się przy konieczności obsługi większych prędkości i większych odległości
Gdyby protokół FDDI wykorzystywał ten sam schemat kodowania bitów, co Token Ring, każdy bit potrzebowałby dwóch sygnałów optycznych: impulsu świetlnego i przerwy (ciemności). Oznaczałoby to, że aby uzyskać prędkość 100 Mb/s, FDDI musiałby przesyłać 200 milionów sygnałów na sekundę. Zamiast tego FDDI używa schematu zwanego NRZI 4B/5B i koduje 4 bity danych w 5 bitach przeznaczonych do transmisji, tak więc o wiele mniej sygnałów potrzebnych jest do przesłania bajta informacji. 5-bitowy kod został bardzo starannie wybrany, aby pozostać w zgodzie z wymaganiami synchronizacji, a dodatkowo wysyłanie informacji w porcjach po 4 bity (pół bajta) ułatwia uzyskanie dużych prędkości transmisji. Schemat 4b/5b przy prędkości 100 Mb/s oznacza wysłanie 125 milionów sygnałów na sekundę (to jest 125 mega bodów Istnieją dwie zasadnicze różnice w przekazywaniu token pomiędzy protokołami FDDI i IEEE 802.5 Token Ring. W tradycyjnej sieci Token Ring nowy token jest wpuszczany do sieci tylko po otrzymaniu z powrotem ramki przez stację wysyłającą. W sieciach FDDI nowy token jest wysyłany przez stację wysyłającą ramkę zaraz po zakończeniu jej transmisji metoda ta została również zaadaptowana w sieciach Token Ring i zwana jest wczesnym zwolnieniem token (Early Token Release). FDDI dzieli stacje robocze na klasy: asynchroniczne (bez wymagań co do synchronizacji przy dostępie do sieci) i synchroniczne (posiadające ściśle określone wymagania odnośnie synchronizacji pomiędzy transmisjami) oraz używa bardzo złożonego algorytmu do udzielania dostępu do sieci dla urządzeń z obydwu klas. Choć jest to metoda bardzo szybka, jej rozpowszechnianie jest mocno hamowane przez wysokie koszty inwestycji, które trzeba ponieść przy przestawieniu się na ten standard.
Ethernet 100 Mb/s Jedną z największych barier na drodze do wdrożenia szybkich sieci komputerowych jest konieczność całkowitej wymiany infrastruktury istniejącej sieci. Większość firm nie może pozwolić sobie na unieruchomienie sieci w celu położenia nowych kabli, wymiany hubów i kart sieciowych oraz powtórnej konfiguracji wszystkich elementów sieci. Dlatego też niektóre nowe technologie 100 Mb/s są tak zaprojektowane, że ułatwiają upgrade sieci. Po pierwsze, często umożliwiają wykorzystanie istniejącego okablowania, a po drugie, są na tyle kompatybilne z obecną instalacją, że pozwalają na stopniowe przechodzenie na nową technologię, stacja po stacji. Powyższe dwie cechy minimalizują wydatki. Przykładami takich systemów są WOBaseT, stworzony przez firmę Grand Junction Corp., i 100VG AnyLAN, wprowadzony przez firmy Hewlett-Packard i AT&T. Oba systemy pracują z prędkością 100 Mb/s, wykorzystując standardowy kabel UTP, ale są to jedyne podobieństwa. Z tych dwóch systemów tak naprawdę tylko lOOBaseT można nazwać siecią Ethernet - używa tego samego protokołu dostępu do medium (CSMA/CD) i takiej samej ramki jak zdefiniowane w standardzie IEEE 802.3. WOBaseT został uznany za rozszerzenie tego standardu i nazwany 802.3u. Standard lOOBaseT wymaga również instalacji nowych koncentratorów i kart sieciowych, jednak ze względu na to, że ramki nowego i starego systemu są identyczne, wymiana może być wykonana stopniowo, tak aby rozłożyć w czasie ciężar prac i wydatków. Można wymienić jeden hub na model lOOBaseT i podłączać do niego po kolei stacje robocze w miarę potrzeb użytkowników i możliwości obsługi sieci komputerowej. Można również zakupić karty sieciowe pracujące zarówno z prędkością 10 Mb/s, jak i 100 Mb/s, a wtedy przejście będzie jeszcze prostsze. System 100VG (voice grade) AnyLAN pracuje również z prędkością 100 Mb/s i został tak zaprojektowany, aby pracować z istniejącym okablowaniem UTP kategorii 3; podobnie jak standard 100BaseT4 korzysta z 4-parowego kabla. Nie ma osobnej opcji dla kabla kategorii 5 i światłowodu. Poza okablowaniem, system 100YG AnyLAN znacznie różni się od lOOBaseT i w ogóle od Ethernetu.
Sieci WBaseT i lOOBaseT rezerwują jedną parę przewodów na wykrywanie kolizji, natomiast system WOVG AnyLAN wykorzystuje jednocześnie cztery pary do transmisji danych. Metoda ta nosi nazwę ąuartet signaling. Używany jest inny sposób kodowania sygnału zwany 5B/6B NRZ, który przesyła 2,5 razy więcej bitów niż przy kodowaniu Manchester w sieciach Ethernet. I to pomnożone przez cztery pary przewodów daje dziesięciokrotny wzrost prędkości transmisji. W sieciach 100VG AnyLAN dostępne są cztery pary, gdyż nie ma potrzeby wykrywania kolizji. Zamiast stosowania algotytmu CSMA/CD, korzysta się tu z metody zwanej demand priority, polegającej na wysyłaniu przez komputery w sieci żądań transmisji danych -transmisja może zostać wykonana po otrzymaniu zgody od huba. Standard 100VG AnyLAN korzysta również z ramki 802.3, podobnie jak Ethernet, tak więc oba standardy mogą współistnieć w ramach jednej sieci komputerowej. Podobnie jak w przypadku standardu lOOBaseT, dostępne są i tu karty sieciowe pracujące zarówno z prędkością 10 Mb/s, jak i 100 Mb/s; możliwe jest więc stopniowe przejście na nową technologię. Jednak standard 100VG AnyLAN został praktycznie wyeliminowany z rynku ze względu na wysokie koszty kart sieciowych i popularność kart ethernetowych 10/100 Mb/s
ATM ATM (Asynchronous Transfer Modę) jest jedną z najnowszych szybkich technologii sieciowych. Od dłuższego czasu jest w stanie ciągłego rozwoju bez możliwości pokazania swoich prawdziwych możliwości. ATM to protokół warstwy fizycznej, umożliwiający jednoczesne przenoszenie głosu, danych i real-time video w tym samym kablu przy wykorzystaniu 53-bajtowych pakietów (zwanych komórkami) standardowych rozmiarów. Komórki zawierają informacje identyfikacyjne pozwalające szybkim koncentratorom ATM (wiring hubs) oddzielać różne typy danych i zapewnić powtórne ułożenie komórek w odpowiedniej kolejności. Podstawowy standard ATM pracuje z prędkością 155 Mb/s, ale niektóre rozwiązania osiągają nawet 660 Mb/s. Rozwijany jest również standard ATM, przeznaczony do łączenia komputerów osobistych, pracujący z prędkością 25 Mb/s, jednak wydaje się on zbyt wolny w porównaniu z 16 Mb/s sieci Token Ring, aby opłacało się wdrożenie zupełnie nowej technologii. ATM posiada całkowicie odrębną koncepcję sieci komputerowej i nie ma prostych ścieżek upgrade'u - inaczej niż w przypadku standardów opisanych wcześniej. Konieczna byłaby wymiana całego sprzętu sieciowego, a produkty ATM są obecnie bardzo drogie, co jest całkiem normalne w przypadku nowej technologii. Z tego też powodu jest używany głównie w sieciach WAN. Może w chwili, gdy przekazywanie przez sieci obrazu video w czasie rzeczywistym stanie się normalną praktyką, ATM znajdzie szersze zastosowanie. Jak na razie, pozostaje technologią z małą ilością zastosowań, ale o dużym potencjale
TCP/IP i Internet TCP/IP (Transmision Control Protocol/lnternet Protocol) to popularna nazwa kilku protokołów wykorzystywanych przez Internet i przez większość UNIX-owych systemów operacyjnych. TCP to protokół warstwy transportowej, a IP - protokół warstwy sieciowej przesyłający bloki danych do hosta. W skład TCP/IP wchodzą aplikacje Internetu i protokoły transportowe; są to FTP (File Transfer Protocol), Telnet (Terminal Emulatiori) i SMTP (Simple Mail Transfer Protocol). TCP/IP został stworzony przez Departament Obrony Stanów Zjednoczonych w latach 70-tych jako niezależny sprzętowo protokół komunikacyjny; od pewnego czasu znany jako Internet.
Dobrym przykładem tej niezależności jest możliwość dostępu do informacji i transfer plików w Internecie ze stacji pracujących pod DOS-em oraz Windows i Windows 95. Główne zalety protokołu TCP/IP to: * Niezależność sprzętowa. TCP/IP nie był projektowany dla konkretnej platformy sprzętowej ani programowej. Może być wykorzystywany we wszystkich typach sieci. * Bezwzględne adresowanie. Dostarcza unikatowych adresów identyfikujących każdy komputer w sieci * Otwarta architektura. Dane techniczne protokołu TCP/IP są ogólnie dostępne dla użytkowników i projektantów. Propozycje zmian w standardzie mogą być przedstawione przez każdego. * Wbudowane protokoły komunikacyjne. TCP/IP umożliwia komunikację różnym środowiskom. Protokoły wysokiego poziomu, jak FTP i Telnet, stały się powszechne w środowisku TCP/IP na wszystkich platformach. Protokół ten był od lat wykorzystywany w sieciach UNIX-owych, a gwałtowny rozwój Internetu sprawił, że dostał się do wszystkich sieci. Wielu administratorów sieci komputerowych odkryło, że mogą przystosować sieciowe systemy operacyjne, na których obecnie pracują, do korzystania z protokołu TCP/IP i zmniejszyć dzięki temu problemy z ruchem w sieci, związane z wykorzystywaniem różnych protokołów. Do najważniejszych protokołów z zestawu TCP/IP należą: * Internet Protocol (IP). Działający w warstwie sieci, IP jest głównym protokołem zestawu TCP/IP. Dostarcza danych sieciowych, łącznie z informacją o adresowaniu i marszrucie, oprócz tego dzieli pakiety na mniejsze fragmenty, wymagane w celu przesłania do miejsca przeznaczenia. * Transmission Control Protocol (TCP). TCP jest niezawodnym, zorientowanym na połączenie protokołem działającym w warstwie transportowej. W tym kontekście niezawodny protokół (ang. reliable) oznacza, że system docelowy przekazuje zwrotną informację do systemu źródłowego, potwierdzając, że dane dotarły w całości i bez błędów. Protokół zorientowany na połączenie to protokół, w którym dwa komputery przed wysłaniem jakichkolwiek danych wymieniają między sobą komunikaty. Te komunikaty powodują nawiązanie połączenia, które pozostaje otwarte aż do zakończenia transmisji danych. TCP jest używany do przesyłania relatywnie dużych porcji danych, takich jak podczas transferu plików w FTP lub transakcji podczas przeglądania stron WWW w HTTP. * User Datagram Protocol. Także działający w warstwie transportowej, UDP jest bezpołączeniowym, nie niezawodnym protokołem, stanowiącym uzupełnienie protokołu TCP. Protokół bezpolączeniowy (ang. connectionless) transmituje dane bez sprawdzania, czy system docelowy jest gotów do odbioru ani nawet czy taki system w ogóle istnieje. Nie niezawodny (ang. unreliable) protokół to protokół, w którym system docelowy nie przesyła informacji zwrotnej potwierdzającej odbiór danych. Obecnie UDP jest nie niezawodny tylko z nazwy, gdyż w większości przypadków służy jedynie przekazywaniu krótkich informacji typu pytanie/odpowiedź, w których sama odpowiedź pełni funkcję potwierdzenia. Z tego protokołu korzysta większość Internetowych systemów DNS (Domain Name Server). * Internet Control Message Protocol (ICPM). ICMP nie przekazuje danych użytkownika, lecz zamiast tego jest protokołem kontrolnym i diagnostycznym, używanym do informowania innych systemów o warunkach i zakłóceniach w pracy sieci. Program PING z TCP/IP wykorzystuje właśnie ICPM w celu sprawdzenia, czy inny komputer podłączony do sieci TCP/IP funkcjonuje
Address Resolution Protocol (ARP). ARP jest protokołem używanym przez IP do konwertowania własnych adresów warstwy sieciowej na adresy sprzętowe warstwy łącza danych. Point-to-Point Protocol (PPP). PPP jest protokołem warstwy łącza danych, jednak nie służy do wykorzystania w sieciach lokalnych. PPP jest używany do ustanowienia bezpośredniego połączenia pomiędzy dwoma komputerami, zwykle za pomocą połączenia modemowego. Jeśli do połączenia z Internetem używasz programu Dial-Up Networking z Windows 9x lub Windows NT, najprawdopodobniej używasz właśnie PPP. File Transfer Protocol (FTP). FTP to protokół warstwy aplikacji używany do przesyłania plików pomiędzy systemami TCP/IP. W odróżnieniu od większości protokołów, FTP w rzeczywistości definiuje dla aplikacji interfejs użytkownika. Właściwie każda implementacja TCP/IP zawiera jakiś program FTP z tekstowym interfejsem użytkownika, zaś większość poleceń powtarza się bez względu na system, którego używasz. Hypertext Transfer Protocol (HTTP). Działający w warstwie aplikacji, HTTP jest podstawowym protokołem sieci WWW. Gdy w przeglądarce WWW wpisujesz adres URL, program przekazuje żądanie HTTP do wskazanego przez ciebie serwera. W rezultacie serwer przesyła odpowiedź HTTP zawierającą plik, którego żądałeś. Simple Mail Transfer Protocol (SMTP). SMTP także działa w warstwie aplikacji i jest wykorzystywany przez większość aplikacji e-mail do przesyłania poczty poprzez Internet.
IPX Termin IPX jest wspólnym określeniem własnych protokołów stworzonych przez firmę Novell na potrzeby swojego systemu operacyjnego NetWare. Choć jest oparty w pewnym stopniu na protokołach TCP/IP, standardy protokołu IPX zostały samodzielnie opracowane przez Novella. Nie zabezpieczyło to jednak firmy przed stworzeniem przez Microsoft własnego, zgodnego z IPX, protokołu, przeznaczonego dla systemu operacyjnego Windows. IPX (Internetwork Packet Exchange) sam w sobie jest bezpołączeniowym, nie niezawodnym protokołem warstwy sieciowej, funkcjonalnie stanowiącym odpowiednik protokołu IP. Składnikiem IPX odpowiadającym protokołowi TCP jest protokół SPX (Seąuenced Packet Exchange), zapewniający zorientowaną na połączenie, niezawodną usługę w warstwie transportowej. Obecnie protokoły IPX są zwykle używane tylko w sieciach z serwerami NetWare; często jednak bywają instalowane jako drugi protokół, na przykład obok protokołu TCP/IP. Ostatnio jednak nawet NetWare zaczyna odchodzić od IPX, coraz częściej skłaniając się ku TCP/IP, podobnie jak przeważająca większość przemysłu sieciowego
NetBEUI NetBEUI (NetBIOS Extended User Interface) jest protokołem używanym głównie w małych sieciach Windows NT. Był domyślnym protokołem w Windows NT 3.1, pierwszej wersji tego systemu operacyjnego. Jednak późniejsze wersje domyślnie używają protokołu TCP/IP. NetBEUI jest prostym protokołem, w którym brakuje wielu funkcji, jakie w protokołach takich jak TCP/IP pozwalają na obsługę sieci o praktycznie dowolnym rozmiarze. NetBEUI nie poddaje się marszrutowaniu, nie może więc być wykorzystany w połączeniach międzysieciowych. Nadaje się do małych sieci typu peer-to-peer, jednak w każdej poważnej instalacji sieci Windows NT powinno się raczej korzystać z TCP/IP
Rozdział 12.
Sprzęt audio Jeden z problemów związanych ze standardem PC wynika z tego, że w czasie gdy on się tworzył, możliwości dźwiękowe komputerów sprowadzały się zaledwie do odtwarzania najprostszych tonów. Stało się tak po części dlatego, że standard PC tworzony był w roku 1981, kiedy wydawało się, że dźwięk w komputerze powinien służyć głównie do oznajmiania zakończenia wykonywania bieżącej operacji liczbowej i temu podobnych zastosowań. Systemy zaprojektowane później, takie jak Macintosh, który zadebiutował w 1984 roku, umożliwiały już obsługę dźwięków wysokiej jakości, zarówno za pomocą sprzętu, jak i oprogramowania. Mimo że uniwersalny standard audio dla komputerów kompatybilnych z PC do dziś nie został sformułowany, to właściwa platformie PC możliwość rozbudowywania pozwala na dołączenie do komputera urządzeń umożliwiających obsługę dźwięku. Poniższy rozdział traktuje o tych właśnie produktach i o sposobach ich instalowania oraz obsługi.
Zastosowania kart dźwiękowych Pierwotnie karty dźwiękowe były wykorzystywane jedynie w grach. Wiele firm, w tym AdLib, Roland, Creative Labs, wprowadziło swoje pierwsze karty dźwiękowe na rynek pod koniec lat osiemdziesiątych. W 1989 firma Creative Labs rozpoczęła sprzedaż produktu nazwanego „Gamę Blaster", który w kilku grach komputerowych umożliwiał stereofoniczne odtwarzanie dźwięków. Ewentualni nabywcy musieli odpowiedzieć sobie na pytanie: „Czy warto wydawać 100 dolarów na to, by poprawić dźwięk gry wartej 50 dolarów?". Do wydania owych 100 dolarów zniechęcał dodatkowo fakt, że - ponieważ nie istniał wówczas żaden standard obsługi dźwięków - karty te były przydatne tylko z tymi kilkoma grami. Mniej więcej w tym samym czasie użytkownikom komputerów PC zostały udostępnione interfejsy MIDI (Musical Instrument Digital Interface), ale można je było wykorzystywać jedynie w bardzo wyspecjalizowanych aplikacjach służących do nagrywania. Kilka miesięcy po wprowadzeniu Gamę Blastera, firma Creative Labs poinformowała o wyprodukowaniu karty dźwiękowej Sound Blaster. Karta ta była kompatybilna z kartą dźwiękową AdLib oraz z Gamę Blaster - poprzednią kartą Creative Labs. Posiadała ona wbudowane gniazdo mikrofonu oraz gniazdo MIDI służące do łączenia komputera z syntezatorem dźwięków. Najważniejsze jednak było to, że karta ta przydawała się nie tylko do gier. Niestety, do dziś nie wypracowano ogólnego standardu kart dźwiękowych dla PC. Tak jak w innych niszach przemysłu komputerowego, standardy tworzone są często przez liderów posiadających przewagę technologiczną w określonym segmencie rynku. Standardy tworzone w taki sposób nazywane są standardami de facto. Na przykład język poleceń i grafiki używany przez drukarki firmy Hewlett-Packard stał się standardem de facto z tego względu, że sprzedano bardzo wiele drukarek tej firmy i większość oprogramowania do drukarek obsługiwała ten język. W związku z tym inni producenci drukarek starali się, by ich produkty mogły emulować drukarki firmy Hewlett-Packard, i w ten sposób umożliwiali klientom korzystanie ze stworzonego dla drukarek HP oprogramowania. Oto jak tworzone są standardy de facto. Wynikają one z popularności pewnych produktów. Ze względu na tę popularność, mimo iż istnieją inne standardy poleceń dla drukarek, większość drukarek kompatybilnych z PC obsługuje standard Hewletl-Packard. W wyniku walki o dominację na rynku, która toczyła się między producentami kart dźwiękowych przez ostatnich kilka lat, spośród wielu marek zostało wyłonionych kilka najpopularniejszych. Mimo że karty dźwiękowe są produkowane przez wiele różnych firm, rynek został zdominowany przez karty firmy Creative Labs, przez co karty tego właśnie producenta stały się standardem de facto.
Konsekwencją tego jest fakt, że większość kart dźwiękowych innych firm emuluje karty firmy Creative Labs. Podobnie jak drukarki firmy Hewlett-Packard, również karty Sound Blaster firmy Creative Labs posiadają interfejs, który jest emulowany przez większość innych kart; zgodnie z nim jest również tworzona większość sterowników. Karta dźwiękowa posiada wiele zastosowań, oto niektóre z nich: * dodawanie dźwięku stereo do oprogramowania rozrywkowego (gry itp.), * zwiększanie efektywności oprogramowania edukacyjnego, zwłaszcza dla dzieci * dodawanie efektów dźwiękowych do prezentacji handlowych i oprogramowania szkoleniowego, * tworzenie muzyki za pomocą sprzętu i oprogramowania MIDI, *
dodawanie uwag dźwiękowych do dokumentów,
* *
dodawanie efektów dźwiękowych do zdarzeń systemowych, umożliwianie komputerowi czytania,
* umożliwianie osobom niepełnosprawnym wykorzystywania komputera, *
odtwarzanie płyt kompaktowych
Karta dźwiękowa została stworzona z myślą o użytkownikach gier komputerowych. Świadczyć o tym może umieszczenie w wielu kartach dźwiękowych osobnego adaptera służącego do podłączania urządzeń wykorzystywanych w zasadzie wyłącznie do gier, takich jak joystick lub konsole. Używanie tego adaptera stanowi źródło potencjalnych konfliktów, ponieważ inne karty, takie jak np. Multi I/O, które są używane w wielu komputerach PC, oprócz portów szeregowych, równoległych itd., mogą również posiadać interfejs gier. Wynikiem tego może być konflikt adresów portu I/O, jako że wszystkie interfejsy gier używają tych samych adresów portu I/O. W takim przypadku najlepiej korzystać z interfejsu znajdującego się na karcie dźwiękowej i wyłączyć wszystkie pozostałe interfejsy gier znajdujące się w systemie. 1 Dodanie karty dźwiękowej niezwykle uatrakcyjnia stare, dobrze znane gry. Wykorzystanie dźwięków umożliwia uzyskanie wrażenia rzeczywistości w stopniu, który inaczej byłby nie do osiągnięcia, niezależnie od tego, jak rzeczywista wydawałaby się przedstawiana grafika. W niektórych grach można nawet prowadzić dialog z komputerem odtwarzającym zapisany cyfrowo ludzki głos. Oprócz przydających realizmu odgłosów i dźwięków, w grach mogą być również wykorzystywane różne tematy muzyczne zwiększające napięcie i uprzyjemniające zabawę
Multimedia Karta dźwiękowa jest elementem niezbędnym do zmiany zwyczajnego komputera w komputer multimedialny (ang. Multimedia PC - MPC). Co to są multimedia? Termin ten obejmuje wiele różnych technologii, ale głównie dotyczy wideo, dźwięku i zapisu. Multimedialność to zdolność do komputerowego łączenia obrazów, danych i dźwięku. W praktyce komputer staje się multimedialny po dodaniu do niego karty dźwiękowej i CDROM-u, wkrótce standardem stanie się również instalowanie napędu DVD. Na początku, w celu utworzenia standardów dla komputerów multimedialnych (MPC), Microsoft utworzył Radę do spraw Marketingu Komputerów Multimedialnych (Multimedia PC Marketing Council). Rada wprowadziła kilka standardów MPC i licencjonowała ich logo oraz znaki handlowe producentom, których sprzęt i oprogramowanie odpowiadały owym standardom. Dzięki działalności Rady, produkowany sprzęt i oprogramowanie obsługujące multimedia dla komputerów PC były kompatybilne.
Niedawno Rada formalnie przekazała swoje obowiązki Grupie Roboczej Komputerów Multimedialnych Stowarzyszenia Wydawców Oprogramowania (Software Publisher Association's Multimedia PC Working Group). Grupa ta składa się głównie z członków poprzedniej rady, którzy dzięki temu mogą narzucać standardy MPC. Pierwszą czynnością nowo powołanej grupy było utworzenie nowego standardu MPC. Rada utworzyła początkowo dwa podstawowe standardy dla komputerów multimedialnych, o nazwach MPC Level l i MPC Level 2. Następnie, zarządzeniem Stowarzyszenia Wydawców Oprogramowania (Software Publisher Association - SPA), do poprzednich został dołączony trzeci, o nazwie MPC Level 3, wprowadzony w czerwcu 1995 roku. Standardy te określają minimalne możliwości komputerów multimedialnych (MPC). Tabela 12.1 przedstawia te standardy Tabela 12.1. Standardy multimediów
MPC poziom 1 MPC poziom 2 MPC poziom 3 Procesor
16 MHz 386SX 25 MHz 486SX 75 MHz Pentium
RAM
2 MB
4 MB
8 MB
Dysk twardy
30 MB
160 MB
540 MB
Stacja dyskietek
1,44 MB 3,5 cala 1,44 MB 3, 5 1,44 MB 3,5 cala cala
Napęd CD-ROM prędkość pojedyncza
prędkość podwójna
prędkość poczwórna
Karta dźwiękowa 8 bitów
16 bitów
16 bitów
Rozdzielczość 640x480, ekranu monitora kolorów (VGA video)
1 6 640x480, kolorów
64k 640x480, kolorów
64k
Inne porty we/wy szeregowy, równoległy, MIDI, gier
szeregowy, równoległy, MIDI, gier
szeregowy, równoległy, MIDI, gier
System operacyjny
Windows 3.1
Windows 3.1
Windows 3.1
Data wprowadzenia
1990
maj 1993
czerwiec 1995
Dziś parametry MPC-3 określają najbardziej podstawowe minimum, w jakie powinien być wyposażony komputer multimedialny. W zasadzie nie polecałbym systemu, który nie przewyższa standardu określonego przez poziom 3 (MPC Level 3). Warto pamiętać, że choć głośniki nie stanowią części specyfikacji, do odtwarzania dźwięków są oczywiście niezbędne.
Pliki dźwiękowe Do przechowywania dźwięków w komputerze możesz użyć dwóch podstawowych typów plików. Pierwszy typ nosi ogólną nazwę pliku dźwiękowego i używa formatów takich jak WAV, VOC, AU i AIFF. Pliki dźwiękowe zawierają próbki dźwięku, tzn. są to analogowe nagrania dźwiękowe, które zostały zdigitalizowane w celu zamiany na postać cyfrową i zapisania na dysku. Podobnie jak obrazki, które mogą mieć różną rozdzielczość, także pliki dźwiękowe mogą używać różnych rozdzielczości, na przykład w celu otrzymania pliku o mniejszym rozmiarze, lecz przy pogorszeniu jakości dźwięku.
Pliki MIDI Drugim typem plików dźwiękowych są pliki MIDI, które różnią się od plików WAV tak, jak pliki grafiki wektorowej różnią się od plików grafiki bitmapowej. Pliki MIDI, które mają rozszerzenia MID lub RMI, są w całości plikami cyfrowymi i nie zawierają żadnych próbek dźwięków; zamiast tego zawierają informacje dla sprzętu, w jaki sposób dźwięk ma zostać wygenerowany. Tak jak karty graficzne 3D wykorzystują informacje i tekstury do tworzenia obrazów na ekranie komputera, tak karty dźwiękowe MIDI wykorzystują pliki MIDI do syntetyzowania muzyki. MIDI to wydajny język programowania stworzony w latach 80. w celu umożliwienia komunikowania się z elektronicznymi instrumentami muzycznymi. MIDI było przełomowym standardem w przemyśle muzyki elektronicznej, w przemyśle, w którym zastosowano chyba wszystkie próby standaryzacji sprzętu w oparciu o własne rozwiązania różnych firm. Dzięki MIDI możesz tworzyć, zapisywać, edytować i odtwarzać pliki muzyczne na komputerze połączonym z urządzeniem MIDI (na przykład elektronicznym sprzętem muzycznym lub syntetyzerem) lub po prostu na samym komputerze. W odróżnieniu od innych typów plików dźwiękowych, polecenia zawarte w plikach MIDI zajmują stosunkowo mało miejsca na dysku. Godzina muzyki stereo zapisana w formacie MIDI zajmuje mniej niż 500 kB. Wiele gier używa plików MIDI zamiast nagranych plików typu WAV w celu zaoszczędzenia ogromnych ilości miejsca na dysku. Ponieważ takie pliki nie są nagraniami, w ich przypadku nie może być mowy o różnych częstotliwościach. Plik MIDI jest w rzeczywistości cyfrowym zapisem partytury. Składa się z zestawu oddzielnych kanałów, z których każdy reprezentuje oddzielny instrument lub rodzaj dźwięku. Każdy kanał zawiera opis długości trwania dźwięku oraz „nuty", która ma zostać odtworzona, podobnie jak pięciolinia w partyturze. Tak więc plik MIDI z zapisem muzyki kwartetu zawiera cztery kanały, reprezentujące dwoje skrzypiec, wiolonczelę i altówkę Przeznaczeniem plików MIDI nie jest zastąpienie plików dźwiękowych typu WAV; powinny być uważane za technologię uzupełniającą. Największą wadą plików MIDI jest sama technika odtwarzania, która jest ograniczona do korzystania z gotowych dźwięków. Najwyraźniej narzucającym się ograniczeniem jest niemożność tworzenia ludzkiego głosu (z wyjątkiem nagranych wcześniej próbek śpiewu chórów). Z tego powodu, gdy ściągniesz z Internetu plik MIDI z nagraniem ulubionej piosenki, słowa będzie trzeba dośpiewać sobie samemu Wszystkie trzy specyfikacje MPC wymagają, by karta dźwiękowa potrafiła odtwarzać pliki MIDI. Powszechny standard używany przez większość kart na rynku umożliwia zapisanie do 16 kanałów w pojedynczym pliku MIDI, ale nie oznacza to, że jesteś ograniczony do jedynie 16 instrumentów. Pojedynczy kanał może reprezentować dźwięk lub grupę instrumentów, na przykład sekcję skrzypiec, pozwalając na syntetyzowanie całej orkiestry.
Niektóre aplikacje do obróbki MIDI potrafią nawet wydrukować zapis zawartości pliku w postaci standardowego zapisu nutowego. Kompozytor może tworzyć muzykę bezpośrednio w komputerze, dowolnie ją modyfikować, a następnie wydrukować zapis nutowy dla poszczególnych muzyków. To duży postęp w dziedzinie tworzenia muzyki, w której do tej pory wzięci kompozytorzy musieli zatrudniać specjalnych skrybów, długimi godzinami ręcznie przepisujących partytury
Odtwarzanie plików MIDI Gdy w komputerze odtwarzasz plik MIDI, nie odtwarzasz nagranego dźwięku. Twój system tworzy muzykę „od zera." Aby móc to robić, komputer potrzebuje syntetyzatora, który obecnie jest zawarty w praktycznie każdej karcie dźwiękowej. W miarę jak system odczytuje informacje z pliku MIDI, syntetyzator generuje odpowiedni dźwięk dla każdego kanału, długość i wysokość dźwięku odczytując z pliku. Sam dźwięk jest generowany na podstawie zdefiniowanego zestawu próbek dźwięków, tak dobranych, aby „udawały" prawdziwy instrument lub grupę instrumentów. Przy pomocy oprogramowania MIDI możesz kontrolować szybkość odtwarzania muzyki. Z punktu widzenia elektroniki, układ MIDI zawarty na karcie dźwiękowej jest podobny do układów MIDI stosowanych w elektronicznych instrumentach muzycznych, choć w większości przypadków nie ma aż tak rozbudowanych możliwości. Specyfikacja MPC wymaga, by układy MIDI na kartach dźwiękowych potrafiły odtworzyć równocześnie przynajmniej sześć instrumentów melodycznych i dwa instrumenty perkusyjne.
Synteza FM Większość kart dźwiękowych generuje dźwięk używając syntezy FM, technologii, która powstała już w 1976 roku. Poprzez użycie operatora fali sinusoidalnej modyfikującej drugą falę, synteza FM tworzy sztuczny dźwięk udający instrument. Standard MIDI, obsługiwany przez kartę dźwiękową, specyfikuje tablicę preprogramowanych dźwięków, zawierającą większość instrumentów stosowanych przez orkiestry i zespoły muzyczne. W ciągu lat technologia rozwinęła się (niektóre syntetyzatory FM używaj ą czterech operatorów) do stadium, w którym synteza FM brzmi już dość dobrze, jednak nadal słychać w niej sztuczność dźwięku. Na przykład trąbka brzmi co prawda jak trąbka, ale w żadnym razie nie może zastąpić prawdziwego instrumentu
Synteza wavetable Syntetyzator wavetable może pobrać z pamięci próbkę dźwięku instrumentu odtwarzającego pojedynczą nutę i zmodyfikować jej częstotliwość w celu odtworzenia dowolnej nuty ze skali dźwiękowej. Niektóre karty dają lepszy dźwięk poprzez wykorzystanie kilku próbek dźwięku tego samego instrumentu. Najwyższy dźwięk pianina różni się od dźwięku najniższego nie tylko wysokością, więc im bliższa wysokości nagranej próbki jest wysokość odtwarzanej nuty, tym bardziej realistyczny staje się generowany dźwięk. Z tego względu rozmiar tablicy zdigitalizowanych dźwięków ma ogromny wpływ na jakość i różnorodność dźwięków, jakie może wygenerować syntetyzator. Najlepsze dostępne karty wavetable zwykle posiadają po kilkadziesiąt megabajtów pamięci przeznaczonej na próbki dźwięków. Niektóre z nich pozwalają także na podłączanie dodatkowych kart z uzupełniającą pamięcią, a także dostosowywanie próbek dźwięków do własnych potrzeb
Połączenia MIDI Zalety MIDI wykraczają poza pełnienie wewnętrznych funkcji w komputerze. Możesz wykorzystać złącze MIDI karty dźwiękowej do połączenia z komputerem elektronicznej klawiatury, generatora dźwięku, maszyny perkusyjnej lub innego urządzenia. Możesz odtwarzać pliki MIDI wykorzystując syntetyzator klawiatury zamiast syntetyzatora komputera - lub możesz tworzyć własne pliki MIDI odgrywając nuty na klawiaturze. Posiadając odpowiednie oprogramowanie, możesz skomponować całą symfonię, odgrywając każdy instrument w osobnym kanale, a następnie odtwarzając wszystkie kanały razem. Wielu profesjonalnych muzyków i kompozytorów używa MIDI do tworzenia muzyki bezpośrednio w komputerze, całkowicie pomijając tradycyjne instrumenty. Niektórzy producenci oferują karty MIDI o jeszcze wyższej jakości, potrafiące działać w trybie pełnodupleksowym, co oznacza, że można odtwarzać stworzone wcześniej ścieżki audio i jednocześnie nagrywać nową ścieżkę do tego samego pliku MIDI. Jeszcze kilka lat temu taką możliwość oferowały jedynie profesjonalne studia nagrań, wyposażone w sprzęt o wartości setek tysięcy dolarów. Aby połączyć urządzenie MIDI z komputerem, będziesz potrzebował karty MIDI posiadającej złącza zgodne ze specyfikacją standardu MIDI. Wykorzystywane są w niej dwa okrągłe, pięciostykowe złącza DIN (rysunek 12.1), osobne dla wejścia (MIDI-IN) oraz wyjścia (MIDIOUT). Wiele urządzeń posiada także złącze MIDI-THRU, które przesyła sygnał z urządzenia bezpośrednio na wyjście, jednak karty dźwiękowe zwykle go nie mają. Co ciekawe, MIDI przesyła dane tylko poprzez styki l i 3 złącza. Styk nr 2 jest ekranowany, zaś styki 4 i 5 nie są używane Rysunek 12.1. Standard MIDI wymaga posiadania dwóch lub trzech pięciostykowych, okrągłych złączy DIN
Podstawową funkcją interfejsu MIDI karty dźwiękowej jest zamiana równoległych danych używanych w komputerze na szeregowy format danych urządzeń MIDI. MIDI wykorzystuje synchroniczną transmisję szeregową z prędkością 31,25 kiloboda, przy ośmiu bitach danych, jednym bicie startu i jednym bicie stopu, przy którym przesłanie jednego bajta zajmuje 320 mikrosekund Najnowszą specyfikację standardu MID! możesz za niewielką opłatą otrzymać od International MIDI Association, 23634 Emelita Street, Woodland Hills, California 91367 USA Złącza MIDI łączy się specjalną, nie ekranowaną skrętką o maksymalnej długości 17 metrów (choć większość sprzedawanych kabli ma długość od 3 do 6 metrów). Możesz także połączyć w łańcuch wiele urządzeń MIDI w celu wspólnego wykorzystania ich możliwości. Całkowita długość łańcucha MIDI nie jest ograniczona, pod warunkiem że długość pojedynczego odcinka kabla nie przekracza 17 metrów.
Wiele kart dźwiękowych nie posiada złącz MIDI. Musisz wtedy zastosować osobną przejściówkę, podłączaną do portu joysticka, posiadającą takie złącza. Niestety, taka przejściówka rzadko jest sprzedawana razem z kartą. Trzeba kupić ją od producenta osobno.
Oprogramowanie MIDI Windows 9x posiada podstawowe oprogramowanie umożliwiające odtwarzanie plików MIDI; jest nim aplikacja Odtwarzacz. Jednak aby w pełni wykorzystać możliwości MIDI, będziesz potrzebował oprogramowania sekwencera w celu modyfikowania tempa odtwarzania oraz instrumentów używanych do odtwarzania poszczególnych kanałów, a także w celu wycinania i wklejania stworzonych wcześniej fragmentów muzyki. Wiele kart dźwiękowych jest sprzedawanych z oprogramowaniem umożliwiającym obróbkę plików MIDI, także w Internecie można znaleźć wiele shareware'owych programów tego typu, jednak prawdziwie użyteczne i wydajne oprogramowanie do obróbki plików MIDI musi być zakupione osobno.
Prezentacje Firmy zajmujące się marketingiem już dawno odkryły, że połączenie grafiki, animacji i dźwięku wywiera na uczestnikach prezentacji mocniejsze wrażenie i jest często tańsze niż pokaz slajdów. Karta dźwiękowa sprawia, że każda prezentacja staje się bardziej przekonująca Istnieje już różnego rodzaju oprogramowanie zarówno do prezentacji, jak i treningu na różnych stopniach zaawansowania. Nie musisz być programistą, aby przedstawić własny program, prezentację albo show. Nawet tak popularne dziś pakiety narzędziowe jak Corel DRAW! lub PowerPoint zawierają moduły umożliwiające przeprowadzenie prezentacji zawierającej elementy dźwięku i animacji. Niektóre programy służące do prezentacji, takie jak PowerPoint lub Corel Presents!, obsługują formaty WAV, AVI oraz pliki MIDI. Za pomocą tych popularnych produktów możesz teraz synchronizować dźwięk z przedstawianymi obrazami. Możesz na przykład odtworzyć odgłos śmiechu i oklasków w momencie wyświetlania odpowiedniego obrazu. Możesz nawet wykorzystać nagrania z płyty kompaktowej lub z CD-ROM-u. Omawiane oprogramowanie bardzo często zawiera biblioteki gotowych do użycia obrazów lub dźwięków. Karta dźwiękowa sprawia, że wiele czynności (takich jak na przykład poznawanie działania nowego oprogramowania) wykonuje się dużo łatwiej i przyjemniej. Producenci oprogramowania wcześnie zdali sobie sprawę z tego faktu i starają się go wykorzystywać. Wielu z nich umieszcza na CD-ROM-ach z oprogramowaniem również animowaną pomoc, bogato wypełnioną dźwiękami i muzyką. Wiele laptopów i notebooków umożliwia dziś nie tylko proste odtwarzanie dźwięków, lecz wszystko to, na co pozwalają odtwarzacz CD-ROM oraz głośniki. Istnieją także zewnętrzne karty muzyczne, jak również napędy CD-ROM, które można w każdej chwili podłączyć do portu równoległego. Ponadto istnieje wiele opartych na technologii PCMCIA kart dźwiękowych oraz napędów CD-ROM.
Nagrywanie W zasadzie wszystkie karty dźwiękowe posiadają gniazdo wejścia. Pozwala ono na połączenie mikrofonu z komputerem. Umożliwia to, przy wykorzystaniu programu takiego jak na przykład Rejestrator dźwięku Microsoft Windows, nagranie własnego głosu, który można później odtwarzać lub edytować. Tworzone pliki są zapisywane w formacie WAV. W Panelu sterowania można przypisać pliki WAV różnym zdarzeniom systemowym (patrz rysunek 12.2). Przy okazji: zawsze bawi mnie, gdy słyszę odgłos spłukiwanej wody w momencie zamykania systemu Windows. Samodzielnie nagrywając dźwięki, możesz tworzyć własne pliki WAV. Każdy z nich możesz wykorzystać jako odgłos towarzyszący różnym zdarzeniom systemowym. Oto kilka standardowych zdarzeń: * uruchamianie Windows * zakończenie Windows * otwarcie programu * zamknięcie programu Rysunek 12.2. Aplikacja ., Dźwięki' Panelu sterowania Windows 9.v umożliwia przypisanie dźwięków zdarzeniom systemowym
*minimalizacja *polecenie menu *domyślny dźwięk *gwiazdka *zatrzymanie krytyczne *błąd programu *wykrzyknik
Za pomocą tego samego gniazda minijack możesz zarówno podłączyć wieżę stereo, jak i nagrać dowolną piosenkę w formacie WAV. Można również kupić już nagrane w formacie WAV utwory muzyczne. Znajdziesz je na elektronicznych tablicach BBS oraz u takich dostawców internetowych jak CompuServe lub America OnLine. Pliki audio możesz również znaleźć pod niżej wymienionymi adresami: The Wav Emporium, http//wav-emporium.forsite.net/ Wav Central, http//www.wavecentral.com/ Ruger's Wav Repository, http//rand.nidlink.com/~mger/\vavsl.html
Adnotacje głosowe Plików WAV można używać do zapisywania komunikatów i dołączania ich do dokumentów lub arkuszy kalkulacyjnych. Można na przykład wziąć mikrofon i w prosty sposób przekazać sekretarce osobiste informacje dotyczące kontraktu osadzając w nim plik z nagraniem. Taki sposób przekazywania informacji nazywamy adnotacją głosową. Za pomocą adnotacji głosowej możesz w dokumencie zawrzeć komunikaty, sugestie lub pytania i przesłać je odpowiedniemu adresatowi. Uwagi takie można jednak dołączać tylko za pomocą aplikacji obsługujących technologię łączenia i osadzania obiektów OLE. Wyobraź sobie, że za pomocą aplikacji Excel, wersji 7.0, edytujesz arkusz kalkulacyjny i chcesz osadzić w nim uwagę głosową obok sumy, która wydaje ci się wątpliwa. W tym celu umieść kursor w komórce obok komórki zawierającej sumę, a następnie z menu Wstaw wybierz polecenie Obiekt i z listy Typ obiektu wybierz Obiekt wave, po czym naciśnij przycisk Nagrywanie i zacznij mówić
Rozpoznawanie głosu Niektóre karty dźwiękowe potrafią rozpoznawać głos. Odpowiednie oprogramowanie umożliwia rozpoznawanie głosu przez komputer także wówczas, gdy karta nie ma takich możliwości. Rozpoznawanie głosu przez komputer niestety nadal jest w powijakach, a żeby uzyskać zadowalający czas odpowiedzi systemu, komputer musi posiadać szybki procesor. Rozpoznawanie głosu jest nadal bardzo czułe na zmiany tonu głosu osoby mówiącej, które mogą wynikać z choroby albo choćby zwiększonego napięcia nerwowego, co powoduje odrzucenie większości zastosowań związanych z rozpoznawaniem głosu klientów. Jednak postępy w tej technologii doprowadzą zapewne wkrótce do tego, że komputer będziemy kontrolować nie za pomocą klawiatury, lecz najzwyczajniej mówiąc do mikrofonu.
Oprogramowanie sterowane głosem Aplikacje z interfejsem głosowym są oczywiście o wiele mniej skomplikowane, gdyż oprogramowanie musi rozpoznać jedynie ograniczoną liczbę słów. W przypadku oprogramowania tego typu, możesz usiąść przed komputerem i wypowiedzieć słowa „otwórz plik" w celu otwarcia menu aktywnej aplikacji Windows. Dla przeciętnego użytkownika ten typ aplikacji ma raczej wątpliwą wartość. Swego czasu Compaą po atrakcyjnej cenie sprzedawał korporacjom komputery wyposażone w mikrofon i odpowiednią aplikację. Można powiedzieć, że widok tuzinów pracowników zgromadzonych w jednej sali i przemawiających do swoich komputerów był co najmniej dość ciekawy. Ten eksperyment wykazał, że produktywność nie wzrosła w ogóle, za to spowodował zmarnowanie wielu godzin, kiedy użytkownicy bawili się oprogramowaniem, nie mówiąc już o hałasie w pracy
Jednak w przypadku osób niepełnosprawnych, z ograniczoną możliwością korzystania z klawiatury, ten typ oprogramowania może otworzyć całkiem nowe drogi komunikacji. Choćby z tego powodu, stałe ulepszanie technologii rozpoznawania głosu ma podstawowe znaczenie W aplikacjach sterowanych głosem konieczne jest wprowadzenie pewnych ograniczeń. Na przykład, popularnym biurowym żartem stałoby się zaglądanie komuś do pokoju i wołanie pełnym głosem „sformatuj dysk C!", gdyby taka komenda mogła spowodować sformatowanie twardego dysku. Oczywiście, oprogramowanie nie może doprowadzać do zniszczenia systemu w wyniku błędnie rozpoznanego polecenia
Oprogramowanie przeznaczone do dyktowania Drugi rodzaj oprogramowania rozpoznawania głosu jest już o wiele bardziej skomplikowany. Zamiana mowy na tekst jest niezmiernie trudnym zadaniem, zwłaszcza biorąc pod uwagę ogromną różnorodność wzorców ludzkiego głosu. Z tego powodu, właściwie całe oprogramowanie tego typu (a także niektóre z aplikacji sterowanych głosem) musi być „przeszkolone" w celu zrozumienia słów wypowiadanych przez konkretnego użytkownika. Szkolenie odbywa się poprzez odczytywanie przygotowanego tekstu, dostarczanego wraz z oprogramowaniem. Ponieważ program wie, co chcesz powiedzieć, może powiązać pewne słowa ze sposobem, w jaki je wymawiasz. Rezultaty osiągane przez użytkowników aplikacji tego typu znacznie od siebie odbiegają, prawdopodobnie głównie ze względu na różnice we wzorcach wymowy. Słyszałem o ludziach, którzy potrafili przedyktować po kilka stron tekstu bez dotykania klawiatury, oraz o ludziach, którzy twierdzili, że poprawianie tak wielu błędów czasem trwa dłużej niż zwykłe przepisanie strony. Technologia rozpoznawania głosu wciąż jest w powijakach i cechuje ją wrażliwość na zmiany głosu. Choroba lub stres często mogą zmienić brzmienie głosu do tego stopnia, że większość systemów rozpoznawania głosu daje za wygraną. Oprócz tego, aby skorzystać z takich aplikacji, musisz posiadać szybki komputer, co najmniej Pentium, aby czas reakcji był na tyle krótki, żeby oprogramowanie nadążało za twoją mową. Jednak korzyści płynące z tej technologii mogą sprawić, iż oprogramowanie i sprzęt rozwiną się na tyle, że kiedyś do sterowania komputerami będziemy powszechnie używać głosu zamiast klawiatury
Konferencje Jedną z najnowszych aplikacji w świecie multimediów są wideo- i audio konferencje poprzez Internet. Aplikacje tego typu występują w różnych postaciach, od produktów typu point-topoint, takich jak Internet Phone firmy YocalTec do całych pakietów konferencyjnych, takich jak NetMeeting Microsoftu. Inne aplikacje, na przykład Real Player firmy RealNetworks, mogą odtwarzać dźwięk (także łącznie z obrazem) rejestrowany poprzez Internet, w procesie zwanym streamingiem W przypadku takich aplikacji karta dźwiękowa stanowi nieodzowną część technologii. W zależności od szybkości połączenia z Internetem, stosowanej technologii kompresji danych oraz od tego, czy wraz z dźwiękiem przesyłany jest obraz, jakość dźwięku dostarczanego przez oprogramowanie konferencyjne waha się od słabej do dość dobrej. Tak jak w przypadku rozpoznawania głosu, także ta technologia jest wciąż bardzo młoda. W przypadku połączenia modemowego 33,6 kb/s (które zwykle nie pracuje z pełną szybkością 33,6 kb/s), jednostronna komunikacja audio i wideo może być zaakceptowana, jednak w przypadku pełnej komunikacji dwustronnej, nawet bez obrazu, może wystąpić gubienie słów. Jednak gdy staną się dostępne szybsze połączenia Internetowe i powstaną lepsze technologie kompresji danych, audio konferencje i telekonferencje staną się prawdopodobnie tak popularne, jak obecne linie telefoniczne
Odsłuch iwanie Karty dźwiękowe mogą być również używane jako niedrogie urządzenia umożliwiające odsłuchiwanie zapisanego tekstu. Narzędzia zamieniające zapisany tekst na mowę (text-tospeech) potrafią bezbłędnie odczytać tekst lub kolumnę cyfr. Oprogramowanie to jest dołączane do niektórych kart dźwiękowych i może być używane do odczytywania podświetlonych fragmentów tekstu lub nawet całych plików. Zgubione słowa lub niezręczne sformułowania zwykle łatwiej jest dosłyszeć niż dostrzec. Księgowi za pomocą tej funkcji kart dźwiękowych mogą sprawdzać długie kolumny liczb, a zajęci kierownicy mogą odsłuchiwać listy elektroniczne (e-mail) podczas wykonywania papierkowej roboty.
Płyty kompaktowe Jednym z bardziej rozrywkowych zastosowań napędów CD-ROM jest odsłuchiwanie płyt kompaktowych podczas pracy. Nagrań można słuchać nie tylko przez głośniki, ale również z ich pominięciem, za pomocą słuchawek wpiętych do gniazdka znajdującego się z przodu napędu CD-ROM. Do większości kart dźwiękowych dodawane jest oprogramowanie umożliwiające odtwarzanie płyt kompaktowych. Bezpłatne wersje tego rodzaju oprogramowania dostępne są również w Internecie i sieciach takich jak CompuServe. Graficzny interfejs takich programów składa się zwykle z wyświetlacza podobnego do tego, który znajduje się w zwykłych odtwarzaczach płyt kompaktowych. Kontrolkami można sterować za pomocą klawiatury lub myszy, a płyt słuchać podczas wykonywania innych czynności
Mikser dźwięku Za każdym razem, gdy źródeł dźwięku wydostającego się z jednej pary głośników jest wiele, niezbędny jest mikser. Większość z nich wygląda podobnie do tych, które możesz oglądać na teledyskach Również większość kart dźwiękowych ma własne miksery (choć wyglądają one nieco inaczej), które umożliwiają odtwarzanie różnych źródeł dźwięków, takich jak MIDI, WAV, MP3, Linę In oraz CD za pomocą jednego wyjścia Linę Out. Zwykle wraz z kartą dźwiękową dostarczone jest odpowiednie oprogramowanie, na którego interfejs składają się graficzne suwaki podobne do tych, które można znaleźć w prawdziwych mikserach. Umożliwiają one kontrolowanie głośności osobno każdego ze źródeł dźwięku
Pojęcia i terminy związane z kartami dźwiękowymi Aby zrozumieć działanie kart dźwiękowych, należy najpierw zapoznać się z terminami, za pomocą których to działanie jest opisane. Terminy takie jak 16-bitowe, jakość CD, port MIDI to tylko niektóre z nich. Pojęcia takie jak próbkowanie (sampling), konwersja DAĆ (skrót od ang. digital-to-audio conversion - konwersja dźwięku cyfrowego na słyszalny) gęsto okraszają opisy nowych produktów audio. W kilku następnych punktach rozdziału opiszę najczęściej spotykane terminy i pojęcia związane z kartami dźwiękowymi.
Natura dźwięku Aby zrozumieć zasadę działania karty dźwiękowej, należy poznać podstawowe informacje z zakresu fizyki dźwięku. Każdy dźwięk jest tworzony przez spowodowanie drgań powietrza lub innych substancji, w których dźwięk powstaje. Fale dźwiękowe rozchodzą się we wszystkich kierunkach. Gdy fale te dotrą do twego ucha, powodują drgania bębenka w uchu, które rozpoznajesz jako dźwięk.
Dwie podstawowe charakterystyki dźwięku to wysokość tonu i jego natężenie. Wysokość tonu to szybkość, z jaką drga powietrze. Wyrażana jest ona za pomocą liczby herców (Hz) lub cykli na sekundę. Jeden cykl to jedno pełne drgnięcie. Ton dźwięku zmienia się w zależności od ilości herców: im wyższa częstotliwość, tym wyższy ton. Ludzkie ucho nie słyszy wszystkich częstotliwości. Bardzo niewielu ludzi słyszy częstotliwości niższe niż 16 Hz lub wyższe niż 20 kHz (l kHz = l kiloherc = 1000 Hz). Na przykład, najniższy dźwięk wytwarzany przez pianino wynosi 27 Hz, a najwyższy -niewiele ponad 4 kHz. Stacje radiowe UKF przesyłają dźwięki o częstotliwości do 15 kHz. Natężenie (głośność) dźwięku określane jest także jako amplituda. Natężenie zależy od siły wibracji tworzących dźwięk. Struna pianina, na przykład, wibruje delikatnie, gdy klawisz naciśnięty jest miękko. Struna drży w niewielkich łukach, więc ton, który wydaje, jest miękki i cichy. Gdy jednak klawisz zostanie uderzony z większą siłą, amplituda drgań rośnie. Głośność dźwięku mierzona jest w decybelach (dB). Głośność szelestu liści szacuje się na 20 dB, przeciętnego ruchu ulicznego na 70 dB, a niedalekiego uderzenia pioruna - na 120 dB
Standardy gier Większość gier obsługuje obydwa aktualnie przyjęte standardy audio: AdLib oraz Sound Blaster. Sound Blaster to rodzina kart dźwiękowych sprzedawana przez firmę Creative Labs; firma AdLib sprzedaje również karty własnej produkcji. W większości gier należy określić, który z tych standardów obsługuje zainstalowana karta dźwiękowa. Używanie karty dźwiękowej popularnego typu zapewnia, że oprogramowanie będzie ją obsługiwać prawie zawsze. W związku z tym, że większość programów obsługuje karty Sound Blaster lub AdLib, większość produkowanych kart dźwiękowych emuluje jeden z tych dwóch popularnych typów. Jeśli posiadasz jakąś nietypową kartę, która nie emuluje ani Sound Blastera, ani AdLib, może się okazać, że wiele programów, którą mogą wykorzystywać użytkownicy wszystkich pozostałych typów kart, nie obsługuje Twojej karty. Coraz więcej gier jest tworzonych dla środowiska Windows 95. Gry napisane dla Windows 95 nie muszą być kompatybilne z żadnym typem kart dźwiękowych. Będą działać nawet wówczas, gdy zainstalowana karta nie jest kompatybilna ani z kartą Sound Blaster, ani z kartą AdLib.
Charakterystyka częstotliwościowa Jakość karty dźwiękowej najczęściej mierzona jest za pomocą dwóch kryteriów: charakterystyki częstotliwościowej (czyli zakresu) oraz całkowitego zniekształcenia harmonicznego. Charakterystyka częstotliwościowa karty dźwiękowej to zakres, w którym system audio może nagrywać i odtwarzać dźwięk, przy stałym i słyszalnym poziomie jego amplitudy. Większość kart obsługuje zakres od 30 Hz do 20 kHz. Im szerszy zakres ma karta, tym lepszy potrafi wytworzyć dźwięk. Całkowite zniekształcenie harmoniczne służy do określania liniowości karty - zakresu, dla jakiego poziom krzywej częstotliwości pozostaje stały. Innymi słowy, zniekształcenie harmoniczne jest miarą dokładności odtwarzania dźwięku. Wszelkie nieliniowe elementy mogą spowodować zniekształcenia harmonii dźwięku. Im mniejszy procent zniekształceń, tym lepiej.
Próbkowanie (sampling) Przy użyciu karty dźwiękowej komputer może zapisywać pliki dźwiękowe w formacie Wave. Waveform audio (znane również jako dźwięk próbkowany lub cyfrowy) używa komputera jak magnetofonu. Małe chipy wbudowane w kartę dźwiękową, nazywane ADC (skrót od ang. analog-to-digital converters - konwertery analogowo-cyfrowe) zamieniają analogowe fale dźwiękowe na cyfrowe bity zrozumiałe dla komputera. Na tej samej zasadzie konwertery DAĆ (skrót od ang. digital to audio converters - konwertery cyfrowo-dźwiękowe) zamieniają cyfrowe zapisy dźwięków na ich słyszalną formę. Samplowanie (próbkowanie) jest procesem zamiany oryginalnych analogowych fal dźwiękowych (patrz rys. 12.3) na cyfrowe sygnały (włączony/wyłączony), które mogą być zapisane, a następnie odtwarzane. Zapisywane są tylko fragmenty dźwięków analogowych. Na przykład w czasie X mierzony dźwięk może mieć amplitudę Y. Im częściej pobierane są próbki, tym wierniejsza analogowemu oryginałowi dźwięku jest cyfrowa kopia Rysunek 12.3. Próbkowanie zmienia fale dźwiękowe w wartości cyfrowe
Dźwięk 8-bitowy a dźwięk 16-bitowy Pierwotne specyfikacje MPC wymagały 8-bitowej karty dźwiękowej. Różnica pomiędzy taką kartą a kartą 16-bitową nie polega na tym, że karta pasuje do złącza 8-, a nie 6-bitowego, lecz na tym, że karta 8-bitowa używa 8 bitów do cyfrowego zapisu każdej próbki dźwięku, a 16bitowa - 16 bitów. Oznacza to, że każda próbka może mieć 256 wartości w odróżnieniu od 65 536 dla karty 16-bitowej. Ogólnie mówiąc, 8-bitowa karta audio jest odpowiednia do zapisu mowy, a 16-bitowa do zapisu muzyki. Rysunek 12.4 przedstawia różnicę pomiędzy 8- a 16bitową kartą dźwiękową
Rysunek 12.4. 16-bitowa gęstość umożliwia dokładniejsze odtworzenie dźwięku niż karta 8-bitowa
Wiele starszych kart dźwiękowych umożliwia jedynie 8-bitową reprodukcję dźwięków. Dziś absolutne minimum stanowi karta 16-bitowa, która umożliwia dosyć wysoką rozdzielczość. Prócz rozdzielczości, na jakość dźwięku wpływa również częstość (częstotliwość) próbkowania (samplowania). Określa ona, jak często karta dźwiękowa mierzy poziom nagrywanego lub odtwarzanego dźwięku. W zasadzie próbkować należy z częstotliwością dwa razy większą od dźwięku o najwyższej spośród odtwarzanych częstotliwości, powiększoną o 10% w celu zlikwidowania niepożądanych sygnałów. Ludzie słyszą dźwięki o częstotliwości nie przekraczającej 20 kHz. Pomnóż to przez dwa i dodaj 10%, a otrzymasz częstość próbkowania 44,1 kHz - tę samą, która używana jest przez sprzęt hi-fi (high fidelity duża wierność odtwarzania). Dźwięk nagrany z częstotliwością 11 kHz (pobierający 11000 próbek na sekundę) jest mniej wyraźny niż dźwięk próbkowany z częstotliwością 22 kHz. Minuta nagrania dźwięków samplowanych z rozdzielczością 16 bitów stereo (na dwa głośniki) i częstotliwością 44 kHz (jakość płyty kompaktowej) na dysku zajmuje około 10,5 MB pamięci. Gdyby wiadomość o długości l minuty, nagrana z zachowaniem takich ustawień, miała zostać dołączona do arkusza kalkulacyjnego, jego wielkość zwiększyłaby się o 10 MB. Te same dźwięki próbkowane z rozdzielczością 8 bitów mono (jeden kanał) i częstotliwością 11 kHz zajmują już tylko 1/16 tego miejsca.
Właściwości kart muzycznych Złącza Większość kart dźwiękowych ma te same złącza. Umożliwiają one przesyłanie dźwięku z karty dźwiękowej do głośników, słuchawek lub systemów stereo i odbieranie sygnałów z mikrofonu, odtwarzacza płyt kompaktowych, magnetofonu lub wieży stereo. Rysunek 12.5 przedstawia cztery najczęściej spotykane rodzaje złączy
Rysunek 12.5. Podstawowe składniki wspólne dla większości kart dźwiękowych
Gniazdo stereo linę out lub audio out (wyjście) używane jest do przesyłania sygnałów z karty dźwiękowej do urządzeń zewnętrznych. Przewody wychodzące od złącza „linę out" mogą łączyć ją z głośnikami, słuchawkami lub wieżą stereo. Jeśli podłączasz wzmacniacz stereo, dźwięk dochodzący z karty dźwiękowej może być wzmacniany. Niektóre karty dźwiękowe, takie jak Microsoft Windows Sound System, są wyposażone w dwa gniazda „linę out". Jedno dla lewego kanału stereo i drugie dla prawego. Gniazdo stereo in lub audio in (wejście) używane jest do nagrywania i miksowania sygnałów dochodzących do komputera. Gniazdo speaker/headphones (glośniki/sluchawki) nie zawsze jest umieszczone na karcie dźwiękowej. Jego miejsce może zajmować drugie z gniazd linę out służących do przesyłania sygnału do głośników lub wzmacniacza stereo. Jeżeli karta posiada zarówno złącze linę out, jak i speaker, drugie z nich dostarcza sygnał wzmocniony, który można skierować do słuchawek lub zestawu małych głośników „kieszonkowych". Z wyjścia speaker wysyłany jest sygnał o mocy do 4 watów. Natomiast z wyjścia linę out wysyłany jest sygnał nie wzmocniony, co zapewnia najwyższą jakość dźwięku, który wzmacniany jest dopiero przez głośniki lub przez wzmacniacz. Warto zauważyć, że wiele kart posiada specjalne złącze wielopinowe, umożliwiające połączenie wewnętrznego CD-ROM-u z zestawem głośników i odtwarzanie dźwięku przez głośniki połączone z kartą dźwiękową. Gniazdo microfon in lub mono in to z kolei 1/8-calowe gniazdo minijack umożliwiające nagrywanie własnego głosu lub dźwięków na dysk. Przy użyciu gniazda mikrofonu można nagrać jedynie dźwięki mono. Wiele kart dźwiękowych w celu podniesienia jakości nagrań używa AGC. Funkcja ta w czasie nagrywania automatycznie dostosowuje poziomy nagrywania. Z gniazdem tym najlepiej współpracuje mikrofon elektrytowy. Niektóre tańsze karty dźwiękowe nie posiadają osobnego gniazda dla mikrofonu; należy go wtedy podłączać do złącza linę in Złącze MIDI. Aby móc używać MIDI do tworzenia muzyki, trzeba połączyć klawiaturę syntezatora lub inne urządzenie MIDI z kartą dźwiękową. Port gier ma wolne piny, które mogą być używane do przesyłania informacji w obie strony. Urządzenie MIDI można połączyć z komputerem poprzez port gier za pomocą kabla MIDI. Kabel taki posiada trzy gniazda: gniazdo joysticka, gniazdo MIDI In (wejście) oraz MIDI Out (wyjście).
Złącze wewnętrzne. Złącze to służy do podłączenia wyjścia audio napędów CD-ROM. Połączenie to umożliwia przesyłanie muzyki ze stacji CD bezpośrednio do karty muzycznej, a więc i odtwarzanie muzyki przez głośniki podłączone do naszego kontrolera dźwięku. Nie należy tego złącza mylić z wewnętrznym kontrolerem CD, który znajduje się na niektórych kartach muzycznych. Przez złącze audio informacja nie płynie do magistrali komputera. Gdy takiego złącza nie ma w naszym komputerze- nie trzeba się martwić. Odtwarzanie muzyki jest dalej możliwe - poprzez gniazdo słuchawkowe znajdujące się na czołowej płycie większości napędów CD Gniazda linę in, linę out, speaker oraz microphone mogą używać tego samego rodzaju złącz - 1/8-calowego „małego Jacka". Zazwyczaj znajdują się na nich opisy, jednak ze względu na umiejscowienie wyprowadzeń, czasem dostęp do nich jest utrudniony. Jedną z przyczyn niewłaściwej pracy karty muzycznej jest błędne podłączenie głośników
Regulacja głośności Na wielu kartach znajduje się pokrętło służące do regulowania poziomu głośności. Niektóre skomplikowane karty nie mają jednak takiego pokrętła. Pozwalają natomiast zmieniać głośność za pomocą naciśnięcia kombinacji klawiszy lub graficznego suwaka. W ten sposób można dostosować głośność dowolnej gry, programu Windows lub dowolnej innej aplikacji.
Synteza Swego czasu, gdy decydowałeś się na zakup karty dźwiękowej, musiałeś zdecydować, czy chcesz kupić kartę monofoniczną czy stereofoniczną. Obecnie właściwie wszystkie karty dźwiękowe są kartami stereofonicznymi. Karty stereofoniczne tworzą równocześnie wiele głosów z dwóch różnych źródeł. Glos jest pojedynczym dźwiękiem generowanym przez kartę. Kwartet smyczkowy używa czterech głosów, po jednym dla każdego instrumentu, podczas gdy instrument polifoniczny, taki jak pianino, potrzebuje pojedynczego głosu dla każdej nuty akordu. Z tego powodu, aby w pełni odtworzyć możliwości pianisty, potrzeba dziesięciu głosów, po jednym dla każdego z palców. Im więcej głosów może wytworzyć karta dźwiękowa, tym lepsza jakość dźwięku. Obecnie najlepsze karty dźwiękowe na rynku mogą wygenerować do 128 głosów równocześnie Większość kart dźwiękowych stosujących syntezę FM wykorzystuje układ scalony syntetyzatora, opracowany przez firmę Yamaha. Starsze i tańsze karty używają monofonicznego, 11-głosowego układu YM3812 lub OPL2. Lepsze modele używają stereofonicznego, 20-głosowego układu YMF262 lub OPL3. Imitowane instrumenty muzyczne nie wywołują takiego wrażenia jak prawdziwe. Karty dźwiękowe z syntezą wavetable używają zdigitalizowanych próbek dźwięków prawdziwych instrumentów i efektów dźwiękowych. Często dziesiątki megabajtów takich próbek znajdują się już w pamięci ROM karty dźwiękowej. Na przykład, niektóre karty wykorzystują chipset firmy Ensonią syntetyzujący dźwięki na podstawie próbek dźwięków prawdziwych instrumentów. Zamiast syntetyzować brzmienie trąby grającej dźwięk D, chipset Ensonią odwołuje się do zdigitalizowanego dźwięku prawdziwej trąby grającej tę nutę. Jeśli podstawowym zastosowaniem karty dźwiękowej będzie rozrywka lub wykorzystanie do nauki czy pracy biurowej, jakość syntezy FM może być zupełnie wystarczająca. Jeśli jednak jesteś entuzjastą muzyki lub chcesz dogłębnie wykorzystać możliwości MIDI, powinieneś zdecydować się na kartę z syntezą wavetable
Aby rozszerzyć możliwości kart Sound Blaster z syntezą FM, firma Creative Labs oferuje karty Wave Blaster. Karta Wave Blaster to uzupełniająca karta podłączana do karty Sound Blaster. Gdy system odtwarza muzykę MIDI, karta dźwiękowa sprawdza, czy jest obecna karta Wave Blaster, w celu wykorzystania 213 próbek dźwięków instrumentów, zdigitalizowanych z jakością płyty CD. Bez karty Wave Blaster, karta Sound Blaster może jedynie imitować dźwięki przy pomocy syntezy FM. Gdy posiadasz kartę Wave Blaster, muzyka brzmi tak, jakby była odgrywana przez rzeczywiste instrumenty - ponieważ tak jest w istocie
Kompresja/dekompresja Ze względu na to, że jedna minuta zapisanego dźwięku zajmuje około 11 MB przestrzeni na dysku, niektórzy producenci kart dźwiękowych używają kompresji ADPCM (skrót od Adaptive Differential Pulse Code Modulation compression), która umożliwia zmniejszenie objętości pliku o ponad 50 % (współczynnik kompresji ponad 2:1). Jednak ze względu na zastosowanie kompresji, jakość dźwięku w ten sposób zapisanego jest zwykle niższa od jakości oryginału. Właśnie ze względu na tę utratę jakości, ADPCM nie stało się standardem. Firma SoundBlaster promuje swoje rozwiązanie sprzętowe, a Microsoft swoje, opracowane wspólnie z firmą Compaą. Najbardziej popularnym standardem kompresji jest standard MPEG (Motion Pictures Experts Group), który umożliwia kompresję zarówno dźwięku, jak i obrazu oraz znajduje zastosowania również pozakomputerowe, takie jak na przykład w odtwarzaczu Philips CD-I. Kompresja MPEG osiąga współczynnik 12:l,dzięki czemu na dyskach CD-ROM można już kupić kilka pełnometrażowych filmów fabularnych.
Procesory sygnałowe o wielu zastosowaniach Jednym z ostatnio wprowadzonych dodatków do kart dźwiękowych są DSP (skrót od ang. digital signal processors - procesory sygnałów cyfrowych). DSP dodają kartom dźwiękowym mocy obliczeniowej odciążając nieco CPU, czyli główny procesor komputera, od zadań znacznie angażujących jego zasoby, takich jak filtrowanie zakłóceń w nagraniach lub kompresowanie w czasie rzeczywistym. Około połowa kart dźwiękowych ogólnego zastosowania posiada DSP. Na przykład karty Cardinal Technologies Sound Pro 16 oraz Sound Pro 16 Plus używają procesora sygnałów cyfrowych Analog Devices ADSP2115. Programowalne DSP karty Sound Blaster AWE 32 umożliwia wykorzystanie algorytmów przetwarzania tekstu na mowę i umożliwia efekty takie jak surround-sound 3-D, pogłos, chór i wiele innych. DSP czyni z karty dźwiękowej urządzenie o wszechstronnych zastosowaniach. IBM na przykład używa DSP do łączenia modemu 14,4 kb/s, faksu 9,6 kb/s oraz automatycznej sekretarki z adapterem WindSurfer Communications. Czy warto kupić DSP? DSP umożliwia przeprowadzanie kompresji w czasie rzeczywistym nawet na komputerach 486SX/25 i słabszych. Warto zauważyć, że wiele kart dźwiękowych można zakupić bez chipa DSP i zainstalować go później
Złącze CD-ROM O tym, czy system jest multimedialny, oprócz karty dźwiękowej decyduje również obecność napędu CD-ROM (compact disk read only memory - dysku kompaktowego pamięci tylko do odczytu - przyp. tłum.). Napędy CD-ROM umożliwiają dostęp do niezliczonych zasobów tekstu, grafiki, dźwięku, wideo i animacji. Napęd CD-ROM, na równi z kartą graficzną, jest niezbędny w każdym komputerze multimedialnym. Oznacza to, że komputer pozbawiony CD-ROM-u nie jest komputerem multimedialnym. Wiele kart dźwiękowych służy również jako karty kontrolera lub interfejsu CD-ROM. Niektóre z nich używają specjalnego połączenia, które odpowiada tylko niektórym typom napędów CD-ROM. Aby umożliwić współpracę karty z większą liczbą napędów CD-ROM, należy nabyć kartę posiadającą złącze IDE (Integrated Drive Electronics) lub SCSI-2 (Smali Computer Systems Interface-2). Jeśli zamierzasz podłączać również inne urządzenia SCSI, takie jak dyski twarde, napędy kaset, skanery i temu podobne, polecam zakup oddzielnego adaptera SCSI-2. Jakość obsługi sterowników takiego urządzenia oraz jego wydajność będą wyższe niż w przypadku karty dźwiękowo- SCSI typu „dwa w jednym". Więcej informacji na temat napędów CD-ROM znajdziesz w rozdziale 17. pt. „Napędy CDROM".
Sterowniki dźwiękowe Tak jak w przypadku wielu komponentów komputera, programowy sterownik zapewnia żywotne połączenie pomiędzy kartą dźwiękową a wykorzystującą ją aplikacją audio lub systemem operacyjnym. Systemy operacyjne takie jak Windows 9x i Windows NT zawierają bogatą bibliotekę sterowników dla większości kart dźwiękowych dostępnych na rynku. W wielu przypadkach sterowniki zostały napisane przez producentów sprzętu i Microsoft je jedynie rozprowadza. Często okazuje się, że sterowniki dostarczane razem z kartą są nowsze niż sterowniki dostarczane z systemem operacyjnym. Jak zwykle, najlepszym miejscem do wyszukiwania najnowszych sterowników sprzętu jest internetowa witryna producenta lub inna usługa on-line. Aplikacje DOS zwykle nie posiadają tak szerokiego zakresu sterowników jak system operacyjny, ale większość gier i innych programów obsługuje karty Sound Blaster. Jeśli postarasz się, by kupowana karta była zgodna z kartą Sound Blaster, nie powinieneś mieć kłopotu z wykorzystywaniem jej we wszystkich swoich aplikacjach.
Wybór karty dźwiękowej Jakie aspekty powinno się brać pod uwagę przy wyborze karty dźwiękowej? Ponieważ .większość z nich jest natury subiektywnej, w poniższych sekcjach zajmiemy się tylko kilkoma podstawowymi zagadnieniami.
Konsument czy producent? Różni użytkownicy oczekują od kart dźwiękowych różnych możliwości. Jednym z najprostszych sposobów klasyfikacji użytkowników jest podzielenie ich na konsumentów i producentów dźwięku Wielu użytkowników potrzebuje jedynie podstawowych właściwości audio. Chcą jedynie słyszeć muzykę i efekty dźwiękowe w grach oraz podczas przeglądania stron WWW, być może także posłuchać muzyki z płytki CD włożonej do napędu. Są konsumentami dźwięku. Zdobywają dźwięki z zewnętrznych źródeł, takich jak płytki CD-ROM czy Internet i, poprostu odtwarzają poprzez głośniki. W przypadku użytkowników tego typu, tańsze karty dźwiękowe doskonale spełnią zadanie.je
Karta powinna potrafić generować dźwięk 16-bitowy, ale do jego syntezy w zupełności wystarczy technologia FM. Zatwardziali gracze być może powinni się zdecydować na karty z syntezą wavetable, ale oni również nie potrzebują modelu z największymi dostępnymi możliwościami. Producentami są ludzie, którzy chcą tworzyć własne pliki dźwiękowe. Mogą do nich należeć zarówno ludzie tworzący notatki dźwiękowe o niższej jakości, jak i profesjonalni muzycy i maniacy MIDI. Tacy użytkownicy powinni wybrać kartę, która w jak największym stopniu może samodzielnie podołać obróbce dźwięku, ponieważ jako taka najmniej obciąża procesor komputera. W takim przypadku gorąco zalecam karty z własnym procesorem DSP, zajmującym się kompresją dźwięku i innymi zadaniami. Muzycy z pewnością zdecydują się na kartę o największej ilości głosów, generowanych przy pomocy syntezy wavetable. Można zastanowić się także nad kartami z opcją rozszerzenia ilości pamięci oraz możliwości tworzenia i modyfikowania własnych próbek dźwięków
Kompatybilność Mimo że oficjalnie producentów kart dźwiękowych nie obowiązuje żaden standard, popularny Sound Blaster stał się standardem de facto. Sound Blaster -pierwsza szeroko rozpowszechniona karta dźwiękowa - jest obsługiwana przez największą liczbę programów. Karta oznaczona jako kompatybilna z Sound Blaster powinna umożliwić odtworzenie dźwięku każdej aplikacji obsługującej dźwięk. Wiele kart dźwiękowych obsługuje również specyfikacje MPC poziom 2 i poziom 3, co umożliwia odtwarzanie dźwięków w Windows i nie tylko. Niektóre karty ze względu na brak obsługi MIDI nie do końca spełniają kryteria MPC. Innymi standardami, na które warto zwrócić uwagę podczas rozpatrywania kompatybilności karty dźwiękowej, są AdLib oraz Pro Audio-Spectrum Wystrzegaj się kart, które wymagają specjalnych sterowników w celu osiągnięcia kompatybilności ze standardem Sound Blaster. Sterowniki te mogą powodować problemy i będą zajmować obszary pamięci, które w innym wypadku byłyby dostępne.
Oprogramowanie dodatkowe Do kart dźwiękowych często jest dołączanych kilka programów ułatwiających korzystanie z niej bez potrzeby zapoznawania się z jej właściwościami. Niektóre z tych programów to: * programy zamieniające tekst w mowę; * programy umożliwiające odtwarzanie, edytowanie i nagrywanie plików muzycznych; * oprogramowanie sekwencjonujące, ułatwiające komponowanie muzyki (zwykle dołączane do kart zaopatrzonych w MIDI);
* różne gotowe do użycia klipy dźwiękowe. Instalowanie kart dźwiękowych Instalowanie kart dźwiękowych jest równie skomplikowane, jak instalowanie modemu wewnętrznego lub karty graficznej. Aby zainstalować kartę dźwiękową, wykonaj następujące czynności: 1 Otwórz obudowę komputera 2
Ustaw odpowiednio zworki i przełączniki karty dźwiękowej (jeśli je ma).
3
Zamontuj kartę dźwiękową i ewentualne połącz jaz napędem CD-ROM.
4
Zamknij obudowę komputera.
5
Zainstaluj oprogramowanie karty dźwiękowej.
6
Dołącz głośniki i inne urządzenia muzyczne
Instalowanie karty dźwiękowej Pierwszą czynnością podczas instalowania wszelkich urządzeń wewnętrznych jest otwarcie obudowy komputera i umieszczenie urządzenia w odpowiednim miejscu. Wewnątrz, na płycie głównej znajdziesz wiele różnych gniazd. Karta dźwiękowa będzie wymagać gniazda 8- lub 16-bitowego. Nie próbuj wkładać karty 16-bitowej w gniazdo karty 8-bitowej. Kartę 8-bitową możesz natomiast wcisnąć zarówno w gniazdo 8-, jak i 16-bitowe. Jeżeli możesz zainstalować kartę dźwiękową w jednym z kilku wolnych gniazd, zamontuj jąjak najdalej od innych kart. Zmniejszy to ewentualne zakłócenia elektromagnetyczne. Następnie odkręć śrubki mocujące przykrywkę gniazda, w którym chcesz umieścić kartę dźwiękową. Wyjmij kartę z opakowania. Po otwarciu ochronnej folii, chwytaj kartę za jej krawędzie lub za metalową ściankę. Staraj się nie dotykać żadnych części znajdujących się na karcie, a zwłaszcza złotych złączek. Nagromadzona na twoich rękach energia statyczna mogłaby zniszczyć delikatne elementy, z których składa się karta dźwiękowa. Ze względu na to, warto kupić sobie uziemiającą opaskę na rękę, która stale odprowadza gromadzony podczas pracy nad komputerem ładunek elektrostatyczny. Wiele kart posiada zworki i przełączniki, które trzeba odpowiednio ustawić, aby karta mogła współpracować z komputerem. Jednak większość nowych kart to karty typu pług and play, które na płytce nie mają żadnych zworek ani przełączników, gdyż ustawia się je za pomocą oprogramowania. Dzięki temu można na przykład bez problemu wyłączyć port joysticka karty dźwiękowej, gdy chcemy zainstalować go w innym miejscu komputera. Szczegółowe informacje na ten temat znajdziesz w instrukcji obsługi karty dźwiękowej. Wewnętrzny napęd CD łączy się z kartą dźwiękową za pomocą odpowiedniego kabla (zwykle dołączonego do napędu). Kabel ten należy połączyć z kartą dźwiękową tak, aby jego czerwone oznaczenie znajdowało się po tej stronie złącza, z której znajduje się cyfra „O" lub „l". Jeżeli napęd CD-ROM zostanie podłączony w inny sposób, nie będzie funkcjonować. Napęd CD-ROM może być również wyposażony w kabel audio. Kabelek ten należy połączyć ze złączem znajdującym się na karcie dźwiękowej. Złącze to jest żłobkowane, więc kabel można włożyć tylko w odpowiedni sposób. Dla kabli tego rodzaju nie obowiązuje żaden standard, warto więc się upewnić, że pasuje on zarówno do posiadanej karty dźwiękowej, jak i do napędu CDROM. Po wyjęciu karty z ochronnej folii, umocuj ją w wybranym gnieździe. Zanim to jednak zrobisz, dotknij wnętrza obudowy komputera, aby umożliwić odpływ nagromadzonej statycznej energii elektrycznej. Włożywszy kartę do gniazda, przymocuj śrubkami jej tylną ściankę do obudowy komputera, a następnie złóż z powrotem cały komputer. Do gniazdka słuchawek możesz podłączyć małe głośniczki. Karty dźwiękowe zwykle podają sygnał o mocy 4 watów, który jest wystarczający do zasilania zestawu małych głośników. Jeżeli używasz głośników o dopuszczalnej mocy mniejszej niż 4 waty, nie zwiększaj głośności karty dźwiękowej do maksimum, gdyż może to spowodować zniszczenie głośników. Oczywiście lepsze dźwięki uzyskasz z głośników, które posiadają wbudowany wzmacniacz
Używanie wieży stereo zamiast głośników Innym rozwiązaniem jest połączenie karty dźwiękowej z zestawem stereo, co umożliwia uzyskanie jeszcze lepszego wzmocnienia dźwięku. Sprawdź, jakiego rodzaju wtyczki są potrzebne po obu stronach kabla łączącego kartę dźwiękową z systemem stereo. Większość wież używa złącza RCA, podczas gdy standardem dla większości kart jest 1/8-calowa wtyczka minijack. Na szczęście potrzebny kabel, który ma z jednej strony wtyczkę minijack, a z drugiej wtyczkę RCA, można kupić w większości sklepów z częściami elektronicznymi. Upewnij się, że kupowany kabel jest stereo, a nie mono. Stanowi to bowiem dużą różnicę, chyba że dołączona za jego pomocą karta dźwiękowa obsługuje tylko dźwięki mono. Kupowany kabel powinien być na tyle długi, aby sięgnął od tylnej ścianki komputera do gniazdka w zestawie - zwykle wystarcza kabel dwumetrowy. Podłączenie wieży stereo do karty dźwiękowej sprowadza się do włożenia kilku wtyczek w odpowiednie miejsca. Jeżeli karta dźwiękowa posiada zarówno gniazdo wyjścia dla głośników lub słuchawek (speaker/headphone), jak i gniazdo wyjścia dla wieży stereo (stereo linę out), kabel podłącz do drugiego z nich. Sygnał w tym gnieździe nie jest przez kartę wzmacniany, zatem przesyłany dźwięk będzie wyższej jakości. Wzmocnienie najlepiej zostawić wieży stereo - ona zrobi to najlepiej. Wyjście to połączenie z wejściem dodatkowym (auxiliary lub aux) wzmacniacza wstępnego lub zintegrowanego. Jeśli wieża nie posiada wejść dodatkowych, innymi wejściami, z których można skorzystać, są w kolejności: tuner, CD lub Tape 2. Nie używaj wejść fonicznych (dla słuchawek), gdyż spowoduje to nierówny poziom przesyłanych sygnałów. Możesz za to włożyć na przykład pojedynczą wtyczkę minijack z jednej strony kabla do gniazda Stereo Linę Out karty dźwiękowej, a dwie wtyczki RCA do gniazd Tape/VCR2 wieży. Gdy używasz karty dźwiękowej z systemem stereo po raz pierwszy, zmniejsz ustawienie głośności do minimum, aby uchronić głośniki przed zniszczeniem. Ustaw ją tak, aby dźwięki były ledwie słyszalne i dopiero wtedy przełącz wieżę na odpowiednie wejście (np. Tape/VCR2). Następnie włącz komputer. Nie zwiększaj poziomu głośności powyżej 3/4 skali, gdyż powoduje to zniekształcenie dźwięku
W jaki sposób wykorzystać możliwości obwodu tape monitor wieży stereo Twoja wieża stereo jest prawdopodobnie wyposażona w system tape monitor. System ten wysyła dźwięk z tunera, magnetofonu lub CD do gniazda tape out i przyjmuje sygnał wchodzący przez gniazdo tape in. Gniazda te, w połączeniu z gniazdami linę in i linę out karty dźwiękowej, umożliwiają odtwarzanie dźwięku z komputera i z radia przez ten sam zestaw głośników.
Oto, jak można to osiągnąć 1.
Wyłącz obwód tape monitor wieży.
2. Ustaw wszystkie minimalnych.
kontrolki
aplikacji
miksera
karty dźwiękowej w położeniach
3.
Połącz gniazdo linę in karty dźwiękowej z gniazdem tape out wieży.
4.
Połącz gniazdo linę out karty dźwiękowej z gniazdem tape in wieży.
5.
Włącz wieżę, wybierz dowolną stację radiową i ustaw średni poziom głośności.
6. Włącz obwód tape monitor. 7. Powoli dostosowuj suwaki linę in oraz main out aplikacji miksera karty dźwiękowej, aż do uzyskania tego samego poziomu głośności co dla radia.
8. Włącz i wyłącz obwód tape monitor podczas dostosowywania poziomu sygnału na wyjściu karty dźwiękowej, aby sprawdzić, czy jest to ten sam sygnał niezależnie od włączenia obwodu tape monitor. 9.
Uruchom plik WAV.
10. Powoli dostosowuj suwak głośności dla plików WAV w oknie aplikacji miksera karty dźwiękowej, aż do uzyskania odpowiedniego poziomu głośności. Teraz można słuchać dźwięków zarówno z komputera, jak i z radia za pomocą tego samego zestawu głośników
Rozwiązywanie problemów związanych z kartą dźwiękową W celu zainstalowania karty dźwiękowej często należy wybierać jej numer IRQ, podstawowy adres we/wy (I/O adress) i kanał DMA. Ustawienia dla większości kart są wprowadzone fabrycznie, ale fakt ten nie chroni przed różnymi błędami, które od czasu do czasu się pojawiają. Rozwiązanie problemu może polegać na zmianie dotychczasowych ustawień karty dźwiękowej lub nawet - gdy potrzeba - ustawień innych kart.
Konflikty sprzętowe Najczęstszy problem związany z kartami dźwiękowymi polega na tym, że nie potrafią się one pogodzić z innymi urządzeniami zainstalowanymi w komputerze. Problem ten może się objawiać tym, że karta nie działa, powtarza w kółko te same dźwięki bądź też zawiesza działanie całego komputera. Sytuacja taka nazywana jest konfliktem sprzętowym lub konfliktem urządzeń. Aby konflikt rozwiązać, należy wykryć jego źródło. Co zatem może być przyczyną takiego konfliktu? Głównie to, że do komunikacji z komputerem używane są te same zasoby (linie sygnałowe na szynie lub kanały). Wyróżnić można trzy główne źródła konfliktów: * Żądania przerwania (IRQ - skrót od ang. „interrupt request")- Są one używane do przerywania czynności aktualnie wykonywanej przez procesor i rozpoczynania innej. * Kanały bezpośredniego dostępu do pamięci (DMA - skrót od ang. direct me-mory access). Kanały te są wykorzystywane do przenoszenia informacji bezpośrednio do pamięci komputera z pominięciem procesora. To właśnie kanały DMA umożliwiają odsłuchiwanie muzyki, podczas gdy komputer zajęty jest wykonywaniem innego zadania. * Adresy portu wejścia/wyjścia (I/O - skrót od ang. Input/Output). Adres portu I/O jest używany do przesyłania informacji pomiędzy urządzeniami znajdującymi się na karcie dźwiękowej a komputerem. Adresy przedstawiane w instrukcjach obsługi są zwykle adresami początkowymi (lub inaczej bazowymi - base ad-resses). Na każdej karcie dźwiękowej znajduje się kilka urządzeń, z których każde używa zakresu adresów rozpoczynających się jakimś adresem bazowym. Większość kart dźwiękowych posiada oprogramowanie, które analizuje zasoby komputera i informuje użytkownika, gdy ich ustawienia domyślne są zajęte przez inne urządzenia. Mimo że oprogramowanie to jest zwykle napisane dosyć solidnie, czasem może nie rozpoznać urządzenia, zwłaszcza takiego, które nie było uruchomione podczas przeprowadzania analizy. Tabela 12.3 przedstawia domyślne ustawienia używane przez urządzenia znajdujące się na standardowej karcie Sound Blaster 16
Tabela 12.3. Domyślne ustawienia zasobów karty Sound Blaster
Urządzenie
Przerwanie Porty I/O
DMA 16-bitowe DMA 8-bitowe
Audio
IRQ5
220h-233h
DMA 5
DMA 1
Port MIDI
-
330h-331h
-
-
Syntezator FM Port gier
-
388h-388h
-
-
-
200h-207h
-
-
Wszystkie przedstawione zasoby są wykorzystywane przez jedną tylko kartę dźwiękową. Nic dziwnego, że karty dźwiękowe przysparzają tak wielu kłopotów podczas instalacji. Choć w sumie rozwiązywanie problemów wywoływanych przez karty dźwiękowe nie jest wcale -jak się okaże - takie trudne. Większość owych ustawień może być w przypadku konfliktu zmieniona na inne. Co więcej, na inne można również zmienić ustawienia urządzeń, z którymi karta dźwiękowa wchodzi w konflikt. Warte uwagi jest, że niektóre urządzenia, takie jak port MIDI, syntezator FM lub port gier, nie używają ani IRQ, ani kanałów DMA. Kartę najlepiej zainstalować zachowując jej ustawienia domyślne wszędzie tam, gdzie to tylko możliwe. Jest to wskazane przede wszystkim z powodu źle napisanych programów, które nie potrafią współpracować z kartą dźwiękową o zmienionych ustawieniach. Oznacza to, że w przypadku konfliktu pomiędzy kartą dźwiękową i innym adapterem zawsze lepiej spróbować zmienić ustawienia tego drugiego. Wskazują na to doświadczenia wielu użytkowników - również tych, którzy, nie zastosowawszy się do tej rady, musieli potem swoim 5-letnim pociechom tłumaczyć, dlaczego w nowo zainstalowanym programie są dinozaury, ale nie ma głosu. Jeżeli używasz systemu Windows 95 i korzystasz z technologii PnP (pług and play), Menedżer urządzeń systemu Windows 95 może ci pomóc skonfigurować urządzenia dołączone do komputera.
Rozwiązywanie konfliktów zasobów Każda karta dźwiękowa ma jakieś domyślne ustawienie IRQ, choć umożliwia jego zmianę na inne. Jednak, jak już wspomniałem, zawsze, gdy to możliwe, lepiej zachować domyślne ustawienia karty dźwiękowej (zwykle IRQ 5) i zmieniać ustawienia innych kart wchodzących z nią w konflikt. Jeżeli karta dźwiękowa ma ustawione przerwanie, już wykorzystywane przez inne urządzenie, objawiać się to będzie przeskakiwaniem, urywanymi dźwiękami lub zawieszaniem się systemu. Przeciętna karta dźwiękowa wymaga dostępu do dwóch kanałów DMA jednocześnie. Zwykle jeden z nich jest kanałem DMA ośmio-, a drugi szesnastobitowym. Dla większości kart ustawieniem domyślnym kanału dla dźwięku 8-bitowego jest DMA l (firma Creative Labs nazywa to „Low DMA"), a dla 16-bitowego - DMA 5 („High DMA"). Najczęściej konflikt dotyczący kanału DMA objawia się tym, że dźwięk nie jest w ogóle słyszalny Ze względu na małą elastyczność źle zaprojektowanych programów, podczas instalowania kart dźwiękowych zalecane jest pozostawianie ustawień domyślnych wszędzie tam, gdzie to tylko możliwe
Rozwiązywanie konfliktów sprzętowych Najlepszym sposobem wykrycia konfliktu sprzętowego jest odnalezienie instrukcji obsługi do wszystkich urządzeń składających się na używany system. Dokładniej temat opisany jest w rozdziale 5. pt. „Gniazda, magistrale i karty rozszerzające". Najczęściej spotykanymi przyczynami konfliktów są: * adaptery SCSI * karty sieciowe * karty adaptera myszy * karty adaptera portu szeregowego dla portów COM3: lub COM4 :* karty adaptera portu równoległego dla portu LPT2: * wewnętrzne modemy * karty interfejsu napędu kaset
* karty interfejsu skanera Prostym sposobem wykrycia urządzeń, które są w konflikcie z kartą dźwiękową, jest usunięcie wszystkich kart poza niezbędnymi (jak np. graficzną) i dodawanie kolejno każdej z nich, aż do momentu, kiedy karta dźwiękowa przestanie funkcjonować. Karta, której dodanie spowodowało przerwanie działania karty dźwiękowej, jest z nią w konflikcie. Po jej rozpoznaniu można zmienić ustawienia albo tej karty, albo karty dźwiękowej. Zmieniane mogą być ustawienia IRQ, kanałów DMA lub adresów portu I/O. Można to uczynić zmieniając ustawienia z worek i przełączników lub ustawienia programu konfi-guracyjnego karty. Jeżeli używasz systemu Windows 95 i korzystasz z technologii PnP (pług and play), Menedżer urządzeń systemu Windows 95 może ci pomóc odnaleźć i rozwiązać powstałe problemy.
Inne problemy związane z kartami dźwiękowymi Tak jak podobne objawy towarzyszą zwykłemu przeziębieniu, również zbliżone są symptomy problemów związanych z kartami dźwiękowymi. Poniższa część powinna być pomocna podczas diagnozowania problemu
Brak dźwięku Jeżeli karta dźwiękowa nie wydaje żadnych dźwięków, przejrzyj poniższe zalecenia. * Upewnij się, że karta dźwiękowa korzysta z domyślnych ustawień wszystkich zasobów, a wszelkie urządzenia, które mogłyby wchodzić z nią w konflikt, mają zmienione ustawienia lub są usunięte. * Czy do karty dźwiękowej podłączone są głośniki? Upewnij się, że są podłączone do gniazda Stereo Linę Out lub do gniazda Speaker. * Jeśli używasz głośników z wbudowanym wzmacniaczem, to czy są one włączone? Czy są podłączone do źródła zasilania? Jeśli są nim baterie, sprawdź ,czy się nie rozładowały, a jeśli zasilacz, to czy jest podłączony sieci? * Czy głośniki są typu stereo? Upewnij się, że wtyczka w gniazdku jest wtyczką stereo, a nie mono.
* Czy ustawienia miksera są odpowiednie? Wiele kart udostępnia osobny mikser dla DOS-a i osobny dla Windows. Za pomocą miksera użytkownik może kontrolować ustawienia różnych urządzeń dźwiękowych, takich jak mikrofonu lub odtwarzacza CD. Osobno mogą być umieszczone kontrolki nagrywania i odtwarzania. Suwak kontrolujący głośność odtwarzania przesuń do góry. W DOS-ie ustawienia możesz zmienić naciskając odpowiednie klawisze lub dokonując odpowiednich zmian w pliku AUTOEXEC.BAT. * Do ustawienia odpowiedniego poziomu głośności zastosuj oprogramowanie konfigurujące lub diagnostyczne. Oprogramowanie takie zwykle umożliwia odtwarzanie dołączonych do niego sampli (próbek) muzycznych. * Wyłącz komputer na minutę, a następnie włącz go ponownie. „Twarde" zresetowanie komputera (przez odłączenie od zasilania) może rozwiązać problem, którego nie rozwiąże zresetowanie „miękkie" (naciśnięcie przycisku Reset lub klawiszy Ctrl+Alt+Del). Jeżeli nie ma dźwięku w grze komputerowej, sprawdź, czy współpracuje onaz twoją kartą dźwiękową. Niektóre gry np. nie rozpoznają karty jako SoundBlaster (kompatybilnej), jeżeli nie ma ona następujących ustawień: IRQ 7,DMA l, adres I/O 220.
Dźwięk dochodzi tylko z jednej strony Jeżeli dźwięki słychać tylko z jednego głośnika, sprawdź: * Czy używasz wtyczki mono w gnieździe stereo? Zdarza się to dosyć często. Jeśli spojrzeć na nią z boku, wtyczka stereo ma dwa ciemniejsze, plastikowe prążki, a wtyczka mono - tylko jeden.
* Czy załadowane zostały odpowiednie sterowniki? Niektóre karty dźwiękowe podają
dźwięk tylko na lewą kolumnę, jeżeli ich sterownik nie jest ładowany z pliku CONFIG.SYS. W tym przypadku również ponownie uruchom program konfigurujący kartę dźwiękową
Głośność jest zbyt mała Jeżeli ledwie słyszysz dźwięki, sprawdź * Czy głośniki są wpięte do odpowiedniego gniazda? Głośniki wymagają wyższego poziomu sygnału niż słuchawki. W tym przypadku również dostosuj ustawienia mikserów dla DOS-a i/lub dla Windows. Jeśli głośność karty dźwiękowej ustawiana jest za pomocą klawiatury do jej ustawienia użyj odpowiedniej kombinacji klawiszy. * Może głośność w mikserze ustawiona jest na zbyt niskim poziomie? Dostosuj jej poziom w mikserze dla DOS-a lub Windows. Jeśli głośność karty dźwiękowej ustawiana jest za pomocą klawiatury - do jej ustawienia użyj odpowiedniej kombinacji klawiszy. * Może pierwotne wzmocnienie jest zbyt słabe? Głośność niektórych kart można ustawiać za pomocą polecenia umieszczonego w tej linii pliku CONFIG.SYS, która ładuje sterownik karty dźwiękowej. Liczba oznaczająca głośność może w tym przypadku być zbyt mała.
* A może głośniki są zbyt słabe? Niektóre głośniki wymagają więcej mocy, niż współpracująca z nimi karta dźwiękowa może wytworzyć. Spróbuj użyć innych głośników lub umieść pomiędzy głośnikami a kartą dźwiękową wzmacniacz stereo
Dźwięk jest chrapliwy Może być kilka różnych przyczyn tego zjawiska: * Karta dźwiękowa może znajdować się zbyt blisko innych kart i rejestrować zakłócenia elektryczne przez nie wytwarzane. Ten problem można rozwiązać przesuwając odpowiednio karty wewnątrz komputera. * Być może głośniki znajdują się zbyt blisko monitora. Jeśli tak, to mogą odbierać pochodzące od niego zakłócenia elektryczne. * Czy do tworzenia dźwięków zainstalowana karta dźwiękowa używa syntezy FM? Większość kart wytwarzających dźwięki za pomocą syntezy FM, a nie przy użyciu wavetable, produkuje dźwięki niskiej jakości. Wiele osób doszło do błędnego wniosku, że używana karta jest uszkodzona, podczas gdy w rzeczywistości uszkodzona nie była. Była po prostu całkowicie sprawną kartą niskiej jakości. W takim przypadku rozwiązaniem jest wymiana karty na nową- taką, która do tworzenia dźwięków używa syntezy wavetable.
* Czy nie włączyłeś głośników ze wzmacniaczem do gniazda Speaker Out, zamiastdo gniazda Linę Out
Komputera nie można uruchomić Jeśli komputera w ogóle nie udaje się uruchomić, karta prawdopodobnie nie została do końca wciśnięta w gniazdo. W takim przypadku wyłącz komputer i wciśnij ją mocno. Każda karta powinna być sztywno osadzona w swoim złączu
Błędy parzystości i inne Komputer może również wyświetlać komunikat o błędzie parzystości lub zwyczajnie się zawiesić. Tego rodzaju problemy najczęściej spowodowane są konfliktami zasobów na jednej z poniższych płaszczyzn: * IRQ * DMA * Porty I/O Jeśli inne urządzenia korzystają z tych samych zasobów co karta dźwiękowa, może to powodować zawieszenia, blokady lub błędy parzystości. Upewnij się więc, że tak nie jest. W celu usunięcia konfliktu należy zmienić ustawienia urządzeń wchodzących w konflikt, przy czym lepiej jest pozostawić ustawienia domyślne karty dźwiękowej i zmienić ustawienia innych urządzeń. Więcej informacji o tym, jakie zasoby są używane przez poszczególne urządzenia i w jaki sposób je zmieniać, znajdziesz w instrukcji obsługi do tych urządzeń.
Rozwiązywanie problemów z joystickiem Jeżeli joystick nie funkcjonuje prawidłowo, rozważ: * Czy używasz dwóch portów gier? Jeżeli masz już zainstalowany jeden port gier, to ten drugi, dostarczany z kartą dźwiękową, może wchodzić w konflikt z pierwszym. Zwykle najlepiej jest wyłączyć inne porty gier i używać tych, które znajdują się na karcie dźwiękowej. Wiele adapterów Multi I/O oraz SuperI/O, które dostarczane są z systemami PCkompatybilnymi, posiadają port gier, który powinien zostać wyłączony po zainstalowaniu karty dźwiękowej.
Czy twój komputer nie jest zbyt szybki? Niektóre szybkie komputery nie potrafią się porozumiewać ze starymi portami gier. W rezultacie, w ferworze walki możesz na przykład nagle poruszać się do góry nogami lub wpaść w spiralę ,nad którą nie masz kontroli. Jeśli spotka cię taka niespodzianka, to znak, że używasz nieodpowiedniego dla komputera portu gier. Większość portów gier wbudowywanych w karty dźwiękowe działa dużo lepiej niż porty dostarczane z kartami Multi I/O. Istnieją również specjalne karty gier, które dobrze współpracują z szybkimi komputerami. Razem z takimi kartami dostarczane jest oprogramowanie służące do wyskalowania (kalibrowania) joysticka oraz podwójnych portów, dzięki którym gra może cieszyć nie tylko ciebie, ale także twojego kolegę. Innym rozwiązaniem jest obniżenie szybkości działania komputera, co zwykle można uzyskać zwalniając przycisk „turbo" lub jemu podobny ,który przeważnie znajduje się na obudowie komputera
Inne problemy Czasami problemy z kartą dźwiękową są trudne do rozwiązania. Ze względu na różne trudności związane ze sposobem realizacji DMA w niektórych chipsetach kart głównych, mogą zaistnieć problemy związane z działaniem pewnych kart lub sterowników. Czasami do ich rozwiązania wystarczy zmiana ustawień Chipset Setup pamięci CMOS, choć innym razem rozwiązanie problemu tego rodzaju może wymagać wielu godzin prób. „Standardu" PC przestrzega zaledwie kilka firm. Wystarczy więc nawet drobna różnica, jak inny BIOS lub nieznaczna zmiana w projekcie płyty głównej, aby standard przestał być standardem, a stał się problemem zakłócającym pracę karty dźwiękowej.
Głośniki Zewnętrzne głośniki stereo hi-fi (high fidelity - ang. o wysokiej wierności odtwarzanego dźwięku) są niezbędne zarówno do pomyślnego przeprowadzenia prezentacji handlowej, jak i do zastosowań multimedialnych oraz MIDI. Można używać standardowych głośników stereo, ale zwykle są one zbyt duże, aby zmieścić je na biurku lub w jego pobliżu. W takich sytuacjach lepsze są małe głośniki przenośne. Karty dźwiękowe nie podają na wyjście żadnej mocy bądź też podawana moc jest niewielka. Mimo że niektóre karty zaopatrzone są w niewielkie 4-watowe wzmacniacze, nie są one na tyle sprawne, by umożliwić działanie głośnikom wyższej jakości. Głośniki standardowe z kolei mogą powodować zakłócenia magnetyczne objawiające się utratą kolorów lub obiektów na ekranie monitora bądź też utratą danych zapisanych na leżących blisko głośników dyskietkach. W związku z tym najlepiej, gdy głośniki komputera są małe, wydajne i osobno zasilane. Powinny również chronić przed działaniem pola magnetycznego, jakie wytwarzają, albo poprzez odpowiednią izolację pudła głośnika, albo elektronicznie eliminując zakłócenia magnetyczne Mimo że większość głośników komputerowych posiada ochronę magnetyczną, nie należy w ich pobliżu zostawiać na dłuższy czas zapisanych taśm, zegarków, kart kredytowych ani dyskietek Jakość dźwięku zależy głównie od jakości głośników. 16-bitowa karta dźwiękowa wysyła do głośników dźwięk o wyższej jakości, ale nawet dźwięk generowany przez kartę 8-bitową brzmi dobrze na dobrej jakości głośnikach. I odwrotnie: nieodpowiedni głośnik sprawi, że dźwięk produkowany przez kartę 16-bitowąnie będzie brzmiał wyraźnie.
Na rynku dostępnych jest bardzo wiele różnych rodzajów głośników: od najmniejszych - firm Sony lub Koss - po modele większe, z osobnym zasilaniem, takich firm jak Bose. Aby móc je ze sobą porównać, trzeba zapoznać się z żargonem służącym do ich opisywania. Głośniki określa się za pomocą trzech kryteriów, charakterystyki częstotliwościowej, całkowitego zniekształcenia harmonicznego i wzmocnienia (mierzonego w watach). * Charakterystyka częstotliwościowa jest miarą zakresu pomiędzy dźwiękami najwyższymi i najniższymi, które dany głośnik może odtwarzać. Idealny zakres rozciąga się od 20 Hz do 20 000 Hz (20 kHz), czyli obejmuje zakres częstotliwości fal odbieranych przez człowieka jako dźwięki. Niestety, żaden system głośników nie odtwarza idealnie dźwięków w całym tym zakresie. Trzeba przyznać, że bardzo niewiele osób słyszy dźwięki o częstotliwościach wyższych niż 18 kHz. Naprawdę wyjątkowy głośnik może odznaczać się zakresem od 30 Hz do 23 000 Hz. Gorsze modele mają zakres od 100 Hz do 20 000 Hz. Charakterystyka częstotliwościowa jest parametrem najbardziej złudnym: dwa głośniki o tej samej charakterystyce częstotliwościowej mogą brzmieć bardzo różnie. * Całkowite zniekształcenie harmoniczne określa wielkość zakłóceń i szumów tworzonych podczas wzmacniania sygnału. Inaczej mówiąc, całkowite zniekształcenie harmoniczne jest różnicą pomiędzy dźwiękiem wysłanym do głośnika a dźwiękiem z niego wychodzącym (słyszanym). Wielkość zakłóceń wyrażana jest procentowo. Akceptowalny poziom zakłóceń jest niższy niż 0,1%. Dla urządzeń służących do nagrywania płyt CD poziom ten wynosi 0,05%. Niektóre głośniki powodują zakłócenia rzędu 10% i więcej. Słuchawki charakteryzują się zwykle poziomem zniekształceń rzędu 2% lub mniej. * Moc (wzmocnienie). Zwykle określana jest parametrem watów na kanal (watts per channel) i określa maksymalny poziom wzmocnienia wysyłanego na głośniki. Podczas porównywania tej wartości dla różnych głośników upewnij się, że podawane jest wzmocnienie liczone w watach na kanał (RMS), a nie wzmocnienie całkowite. Większość kart dźwiękowych posiada wbudowane wzmacniacze, które pozwalają na wykorzystanie do 8 watów (najczęściej 4) na kanał. Ten poziom wzmocnienia zwykle nie wystarcza do uzyskania dobrej jakości dźwięku, w związku z czym większość głośników ma własne wzmacniacze. W głośnikach takich wystarczy użyć odpowiedniego przełącznika lub przycisku, aby sygnał przychodzący z karty dźwiękowej został wzmocniony. Jeśli sygnału tego nie chcesz wzmacniać, ustaw przełącznik w pozycji „direct" (ang. bezpośrednio). Zwykle jednak chcesz wzmocnić sygnał. Głośniki zazwyczaj mają wbudowany zasilacz. Jeśli głośniki, których używasz, nie mają zasilacza, możesz go z łatwością kupić w sklepach elektronicznych. Upewnij się, że napięcie i biegunowość (polaryzacja) zasilacza, który chcesz kupić, odpowiada napięciu i polaryzacji posiadanych głośników. Istnieje bardzo wiele sposobów obsługi głośników w zależności od ich złożoności i ceny. Bywa, że na każdym głośniku znajduje się osobne pokrętło do regulacji głośności, dzięki czemu można odpowiednio dostosować głośność, gdy głośniki znajdują się w różnych odległościach. Wiele głośników komputerowych posiada przycisk DBB (skrót od ang. dynamie bass boost ~ podbicie siły basów). Naciśnięcie tego przycisku spowoduje, że dźwięki niskie (bass) będą mocniejsze, a wysokie (treble) czystsze, niezależnie od aktualnego ustawienia głośności. Inne głośniki posiadają osobne przełączniki lub pokrętła do regulowania tonów niskich i wysokich lub specjalny korektor do regulacji trzech zakresów: dźwięków niskich, średnich i wysokich. Gdy jednak sygnał nie jest wzmacniany przez głośniki, opisywane kontrolki nie mają wpływu na dźwięk wydobywający się z głośników, które skazane są wtedy jedynie na moc karty dźwiękowej
1/8-calowe gniazdo minijack karty dźwiękowej jest połączone za pomocą kabla z jednym z głośników. Następnie sygnał jest dzielony i za pomocą osobnego kabla dostarczany do drugiego głośnika. Przed zakupem zestawu głośników upewnij się, że łączący je kabel ma odpowiednią długość. Zwróć uwagę, że na przykład komputer w odbudowie „Tower" stojącej obok stołu będzie wymagał dłuższych kabli niż spoczywający na stole komputer w obudowie „Desktop". Niektóre głośniki mają na stałe wbudowaną funkcję „uśpienie" („sleep"), która w przypadku nie używania głośników przez pewien czas powoduje ich wyłączenie. Funkcja ta pozwala zaoszczędzić energię, ale również powoduje urywanie pierwszych dźwięków w przypadku odtwarzania ich po automatycznym wyłączeniu głośników. Słuchawki nigdy nie zastąpią głośników, ale umożliwiają korzystanie z możliwości karty dźwiękowej bez potrzeby uwzględniania nastrojów współlokatorów oraz sąsiadów
Mikrofon Nie do wszystkich kart dźwiękowych dołączany jest mikrofon, a jest on narzędziem niezbędnym, jeśli chcesz nagrywać swój głos w postaci plików WAV. Wybór odpowiedniego mikrofonu jest łatwy - najważniejsze, ażeby posiadał wtyczkę minijack 1/8 cala, którą można wetknąć do gniazdka microphone lub audio in karty dźwiękowej. Niektóre mikrofony posiadają przełącznik on/off (włącz/wyłącz). Mikrofony, tak samo jak głośniki, określa się za pomocą ich zakresu częstotliwości. W tym przypadku jednak nie powinien on wpływać zbytnio na wybór mikrofonu, gdyż zapisywany za jego pomocą głos ludzki przenoszony jest w niewielkim zakresie częstotliwości. Jeżeli chcesz zapisywać tylko głosy ludzkie, wystarczy kupić niedrogi mikrofon o ograniczonym zakresie przenoszonych częstotliwości. Mikrofon drogi umożliwia nagrywanie dźwięków spoza częstotliwości ludzkiej mowy. Ale po co płacić za coś, czego nie będzie się wykorzystywać? Jeżeli zamierzasz nagrywać muzykę, zainwestuj w mikrofon drogi, ale dobry. Jeśli znów nagrywasz przy użyciu karty 8-bitowej, możesz równie dobrze poprzestać na mikrofonie tanim. Aspektem najważniejszym w przypadku decyzji o zakupie mikrofonu powinien być sposób nagrywania. Jeśli pracujesz w biurze pełnym hałasów, mikrofon kierunkowy umożliwi ich wyeliminowanie. Zwykły (bezkierunkowy) mikrofon byłby natomiast lepszy w przypadku nagrywania rozmów grupowych. Do większości droższych kart dźwiękowych dołączony jest jakiś mikrofon. Może to być mikrofon do wpinania w klapę, mikrofon ręczny lub do postawienia na biurku. Jeśli nie chcesz zajmować rąk trzymaniem mikrofonu, zamiast tradycyjnego - z rączką- wybierz mikrofon do wpinania w klapę. Jeśli w pudełku z kartą dźwiękową nie było żadnego mikrofonu, to na pewno znajdziesz go w najbliższym sklepie ze sprzętem komputerowym. Przed zakupem upewnij się tylko, że interesujący Cię mikrofon ma oporność odpowiadającą wejściu karty dźwiękowej
Rozdział 13.
Stacje dyskietek W rozdziale tym są szczegółowo opisane stacje (napędy) dyskietek oraz same dyskietki. Przedstawiona jest tu zasada działania dyskietek oraz ich napędów, a także sposób wykorzystania ich przez system DOS, rodzaje dostępnych napędów i dyskietek, jak również sposób poprawnego instalowania i obsługi tych urządzeń.
Historia rozwoju napędów dyskietek Alan Shugart jest osobą, której przypisuje się wynalezienie (zdarzyło się to pod koniec lat 60.) napędu dyskietek. W roku 1967 kierował on zespołem pracowników laboratorium IBM w San Jose, pracującym nad skonstruowaniem pierwszej stacji dyskietek. David Noble, jeden z głównych inżynierów w zespole Shugarta, zaproponował wykorzystanie jako nośnika informacji elastycznego krążka o średnicy ośmiu cali zamkniętego w ochronnym tworzywie, wyłożonym od wewnątrz tkaniną. Dwa lata później Shugart opuścił IBM i przeszedł do firmy Memorex, zabierając ze sobą ponad stu inżynierów. Z powodu lojalności okazanej przez towarzyszących mu członków zespołu otrzymał wtedy przydomek „The Pied Piper" („Kraciasty kobziarz"). W 1973 roku rozstał się z Memorexem, ponownie zabierając wielu współpracowników i założył Shugart Associates - firmę zajmującą się opracowywaniem i produkcją napędów dyskietek. Interfejs napędu dyskietek opracowany przez Shugarta do dziś stanowi podstawę wszystkich napędów dyskietek stosowanych w komputerach osobistych. Np. firma IBM wykorzystywała go w komputerach PC, umożliwiając stosowanie napędów pochodzących od niezależnych producentów, dzięki czemu nie musiała tworzyć od podstaw własnych rozwiązań. W tym czasie Shugart chciał połączyć procesory i stacje dyskietek w pełne systemy mikrokomputerowe, lecz osoby finansujące Shugart Associates wolały, aby firma skoncentrowała się wyłącznie na stacjach dyskietek. Opuścił firmę (czy też podziękowano mu za współpracę) w roku 1974, tuż przed wprowadzeniem do sprzedaży napędu dyskietek 5,25", które stały się standardem wykorzystywanym w komputerach osobistych, szybko wypierającym napędy 8-calowe. Firma Shugart Associates opracowała również interfejs SASI (Shugart Associates System Interface), który po oficjalnym zatwierdzeniu w 1986 roku przez komisję ANSI (skrót od ang. American National Standards In-stitute - Amerykański Instytut Standardów Narodowych) został przemianowany na SCSI (Smali Computer Systems Interface). Po odejściu z firmy, Shugart próbował na drodze prawnej zmusić Shugart Associates do usunięcia swojego nazwiska z nazwy firmy, lecz bez powodzenia. Pozostałości dawnej Shugart Associates działają do dziś pod nazwą Shugart Corporation Przez następne kilka lat Shugart korzystał z wolnego czasu - prowadził bar, a nawet bawił się w rybołówstwo. W roku 1979 Finis Conner spotkał się z Shugartem i zaproponował mu współpracę przy produkcji i sprzedaży dysków twardych 5,25". Razem założyli firmę Seagate Technology, która pod koniec roku 1979 zaprezentowała dysk twardy ST-506 (o pojemności 6 megabajtów przed i 5 megabajtów po sformatowaniu) wraz z interfejsem. Dysk ten jest powszechnie uważany za protoplastę wszystkich dysków twardych stosowanych w komputerach osobistych. Później firma Seagate wprowadziła na rynek dysk ST-412 (12 megabajtów przed i 10 po sformatowaniu), montowany w komputerach IBM XT od 1983 roku. Na wiele lat IBM stał się głównym odbiorcą produktów firmy Seagate. Obecnie Seagate Technology jest największym producentem dysków twardych na świecie. Nie sposób nie zauważyć ogromnego wpływu Alana Shugarta na przemysł komputerowy. To on lub jego współpracownicy stworzyli napęd dyskietek, dysk twardy, dysk SCSI oraz interfejsy kontrolerów używane po dzień dzisiejszy.
Wszystkie napędy dyskietek stosowane w komputerach osobistych nadal oparte są na oryginalnych projektach Shugarta (i są z nimi kompatybilne). Interfejs dysku twardego ST506/412 na wiele lat stał się standardem i posłużył za podstawę do stworzenia standardów ESDI oraz IDE. Shugart jest także twórcą interfejsu SCSI, wykorzystywanego obecnie zarówno w systemach IBM, jak i Apple. Na marginesie można nadmienić, że pod koniec lat 80. Finis Conner pożegnał się z Seagate i założył Conner Peripherials, która początkowo była własnością firmy Compaq. Conner stał się wyłącznym dostawcą dysków twardych dla firmy Compaq i stopniowo rozwijał sprzedaż również dla innych producentów systemów komputerowych. Ostatecznie Compaq usamodzielnił Conner Peripherials, odsprzedając większość udziałów w firmie. Pod koniec roku 1996 Seagate przejęła Conner Peripherials, włączając wszystkie jej produkty do swojej oferty
Elementy składowe napędu W niniejszym podrozdziale opisane są elementy, z których zbudowany jest typowy napęd dyskietek, oraz sposób ich działania podczas odczytu i zapisu danych, czyli podczas pracy napędu. Wszystkie stacje dyskietek, niezależnie od typu, zbudowane są z szeregu podstawowych elementów. W celu poprawnego zainstalowania i obsługi stacji dyskietek należy poznać te elementy oraz zrozumieć pełnione przez nie funkcje (patrz rysunek 13.1).
Głowice odczytująco-zapisujące Napędy dyskietek z reguły wyposażone są w dwie głowice odczytująco -zapisujące, są one bowiem stacjami dwustronnymi. Każdej stronie dyskietki odpowiada jedna głowica, wykorzystywana zarówno do odczytu, jak i zapisu danych. Swego czasu dostępne były stacje jednostronne, które obecnie przeszły już do historii (patrz rysunek 13.2). Rysunek 13.1. Typowy napęd Dyskietek o podwójnej (pelnej) wysokości
Większość osób nie zdaje sobie sprawy, że głowicą pierwszą jest ta, która znajduje się u dołu napędu i która oznaczana jest numerem 0. W stacjach jednostronnych była bowiem montowana jedynie dolna głowica; tam, gdzie dziś znajduje się głowica górna, montowane było opuszczane ramię dociskowe z okładziną (patrz rys. 13.2). Inną ciekawostką związaną ze stacjami dyskietek jest to, że górna głowica (głowica 1) nie jest umieszczona bezpośrednio nad dolną, lecz jest przesunięta względem dolnej w kierunku środka dyskietki o 4 lub 8 (zależnie od typu napędu) ścieżek. Mechanizm głowic napędzany jest za pomocą silnika krokowego. Głowice przesuwane są po powierzchni dyskietki, wzdłuż linii prostej, na zewnątrz lub do środka dyskietki, dzięki czemu można je ustawiać nad różnymi ścieżkami. Kierunek przesuwania głowic jest prostopadły do zapisywanych przez nie ścieżek. Ponieważ górna głowica przymocowana jest do tego samego elementu co dolna, głowice te zawsze poruszają się w ten sam sposób i nie jest możliwe ich niezależne przemieszczanie. Same głowice wykonane są z miękkich stopów żelazowych i uzwojeń elektromagnetycznych. Każda głowica jest pojedynczym elementem o złożonej konstrukcji, z głowicą odczytująco- zapisującą umieszczoną między dwiema głowicami kasowania tunelowego (rysunek 13.3). Rysunek 13.2. Jedno- i dwustronne :estawy glowic
Stosowana metoda zapisywania informacji nosi nazwę kasowania tunelowego; w trakcie zapisu ścieżki, umieszczone z tyłu głowice kasowania tunelowego usuwają zewnętrzne fragmenty ścieżek, „obcinając" zapisywany na dyskietce obszar. Dzięki temu dane zapisywane są jedynie w określonym, wąskim „tunelu" każdej ścieżki. Proces ten zapobiega zakłócaniu sygnału z danej ścieżki przez sygnały ze ścieżek sąsiednich. Pozostawienie sygnału tak, jak został zapisany, spowodowałoby błędy podczas odczytu. Obcięcie zapisanego obszaru eliminuje taką możliwość Termin ustawienie odnosi się do położenia głowic względem ścieżek, które mają być odczytywane lub zapisywane. Poprawność ustawienia głowic można sprawdzać stosując wyłącznie dyskietki wzorcowe, zapisane za pomocą maszyny o idealnie wyregulowanych głowicach. Dyskietki takie są obecnie ogólnodostępne, dzięki czemu niemal każdy może sprawdzić ustawienie głowic w stacji. Niestety, nie jest to zbyt praktyczne, gdyż jedna kalibrowana dyskietka do analogowego ustawienia głowic kosztuje obecnie więcej niż trzy stacje dyskietek. Przyleganie głowic do dyskietki zapewniają sprężyny, dzięki którym powierzchnia dyskietki jest ściskana z niewielką siłą, co oznacza, że podczas odczytu lub zapisu informacji głowice są w bezpośrednim kontakcie z powierzchnią dyskietki. Ponieważ standardowe dyskietki obracają się z szybkością 300 lub 360 obrotów na minutę, nacisk ten nie powoduje większych problemów związanych z tarciem. Niektóre z nowych dyskietek pokrywa się specjalną warstwą teflonu lub innej substancji, mającej na celu zmniejszenie tarcia i ułatwienie przesuwania się dyskietki między głowicami. Ponieważ głowice są w kontakcie z powierzchnią dyskietki, może się na nich gromadzić pył tlenków metali, pochodzący z jej powierzchni. Z takich zanieczyszczeń głowice powinny być oczyszczane w ramach konserwacji lub przeglądów serwisowych sprzętu. Rysunek 13.3. Wieloczęściowa konstrukcja typowej głowicy stacji dyskietek
W celu poprawnego odczytania lub zapisania informacji na dyskietce, głowice muszą być w bezpośrednim kontakcie z nośnikiem. Bardzo małe cząsteczki tlenków metali, kurzu, brudu, dymu, włosy oraz plamy po dotknięciu palcem mogą powodować problemy podczas zapisywania lub odczytywania informacji zapisanych na dyskietce. Badania przeprowadzone przez producentów dyskietek i napędów pokazały, że oddalenie głowic od nośnika o zaledwie 0,000013 cm (13 milionowych centymetra) może być przyczyną błędów odczytu i zapisu. Łatwo więc zrozumieć, dlaczego tak ważne jest delikatne obchodzenie się z dyskietkami oraz unikanie dotykania czy jakiegokolwiek innego zanieczyszczania powierzchni nośnika. Sztywna obudowa i ochronna osłona szczeliny dla głowic stosowana w dyskietkach 3,5" wspaniale zapobiega zabrudzeniom powierzchni dyskietki. Dyskietki 5,25" nie mają takich zabezpieczeń, więc obchodząc się z nimi należy zachować tym większą ostrożność
Napęd głowic Głowice poruszane są za pomocą silniczka, który umożliwia przesuwanie ich do środka i na zewnątrz dyskietki. Mechanizmy stosowane w stacjach dyskietek zawierają specjalny typ silnika - silnik krokowy, obracający się w obu kierunkach o określony kąt, zwany krokiem. Silnik taki nie kręci się w kółko, lecz obraca się o określony kąt i zatrzymuje. Silniki krokowe obracają się o określone, stałe kąty i zatrzymują się w ściśle określonych położeniach. Silniki takie mają ograniczone możliwości pozycjonowania. Pojedynczy krok silnika, bądź jego wielokrotność, definiuje położenie każdej ścieżki na dyskietce. Silnik może być sterowany za pomocą kontrolera dyskietki w celu względnego przesunięcia o dowolną odległość z zakresu możliwych do wykonania ruchów. Na przykład, aby umieścić głowice nad ścieżką numer 25, kontroler dyskietki nakazuje silnikowi wykonanie 25 kroków. Silnik krokowy jest zwykle połączony z głowicami za pomocą stalowej taśmy. Taśma ta jest nawijana na wałek silnika krokowego i z niego rozwijana, co przekształca jego ruch obrotowy na ruch posuwisty. W niektórych napędach zamiast stalowej taśmy wykorzystywany jest mechanizm z przekładnią ślimakową. W rozwiązaniu tym głowice spoczywają na przekładni ślimakowej, bezpośrednio napędzanej przez wał silnika krokowego. Konstrukcja taka jest bardziej zwarta, więc z reguły jest stosowana w mniejszych napędach 3,5". Większość silników krokowych stosowanych w stacjach dyskietek może się poruszać krokami o określonej długości, która zależy od odległości między ścieżkami zapisywanymi na dyskietce. W większości napędów zapisujących po 48 TPI (skrót od ang. tracks per inch ścieżek na cal) stosowane są silniki krokowe obracające się o 3,6 stopnia w jednym kroku. Oznacza to, że każdy obrót osi silnika o 3,6 stopnia powoduje przesunięcie głowic z danej ścieżki (lub cylindra) na następną. Większość napędów pracujących w gęstości 96 lub 135 TPI korzysta z silników krokowych o rozmiarze kroku (obrotu) równym 1,8 stopnia, co stanowi dokładnie połowę obrotu silników w napędach 48 TPI. Czasami odpowiednie informacje są wytłoczone lub nadrukowane na samym silniku, dzięki czemu możemy się zorientować, z jakim napędem mamy do czynienia. Stacje dyskietek 5,25" o pojemności 360 kB są jedynymi napędami o gęstości 48 TPI, i właśnie w nich stosowane są silniki o kroku 3,6 stopnia. W pozostałych typach napędów wykorzystywane są silniki o kroku 1,8 stopnia. W większości napędów silnik krokowy jest małym, walcowatym elementem, umieszczonym w rogu urządzenia. Czas pełnego obrotu silnika krokowego wynosi około 200 milisekund (ok. jednej piątej sekundy). Przeciętnie pół skoku trwa 100 ms, a jedna trzecia - 66 ms. I właśnie czas 1/2 lub 1/3 skoku podawany jest jako średni czas dostępu dla danego napędu. Średni czas dostępu jest przedziałem czasu normalnie potrzebnym na przesunięcie głowic z jednej ścieżki nad dowolną inną
Silnik ten powoduje obracanie się dyskietki. Typowa prędkość obrotowa dyskietki to 300 lub 360 obrotów na minutę, zależnie od typu napędu. Napędy 5,25" o wysokiej gęstości (HD) są jedynymi, jakie obracają się z szybkością 360 obrotów na minutę; wszystkie inne, w tym również napędy 5,25" o podwójnej gęstości (DD), 3,5-calowe napędy DD, HD i ED (skróty od ang. double density - podwójna gęstość, high density - wysoka gęstość i extra-high density ekstra wysoka gęstość) mają szybkość obrotową równą 300 obrotom na minutę. Najwcześniejsze modele napędów wyposażone były w mechanizm, w którym silnik za pomocą paska napędzał trzpień obracający dyskietkę. We współczesnych rozwiązaniach stosuje się napęd bezpośredni, w którym nie ma miejsca na paski. Mechanizm taki nie tylko zajmuje mniej miejsca, lecz jest również bardziej niezawodny i tańszy od tradycyjnego. Wcześniejsze rozwiązania charakteryzowały się większym momentem obrotowym, uzyskiwanym dzięki przekładni pasowej, co umożliwiało obsługę również dyskietek stawiających większy opór. Większość współczesnych mechanizmów zaopatrzona jest już w układ automatycznej kompensacji oporów dyskietki, ustawiający częstotliwość obrotów na 300 lub 360 na minutę i dostosowujący moment obrotowy do oporu stawianego przez dyskietkę. W przypadku takich napędów regulowanie prędkości obrotowej dyskietki nie jest konieczne. Opisane rozwiązania stosowane są w nowszych typach stacji dyskietek, lecz w wielu starszych modelach konieczna jest okresowa regulacja szybkości obrotowej. Patrząc na trzpień napędowy dyskietki można uzyskać wskazówkę dotyczącą rodzaju napędu. Jeśli znajdują się na nim oznaczenia dla światła stroboskopowego (fluorescencyjnego) o częstotliwości 50 Hz i 60 Hz, prawdopodobnie gdzieś na płytce znajduje się element regulujący prędkość obrotową dyskietki. Napędy bez takich znaczników z reguły wyposażone są w obwody automatycznej regulacji prędkości, eliminujące potrzebę regulacji ręcznej. Technika regulacji prędkości polega na uruchomieniu napędu przy oświetleniu stroboskopowym i zmienianiu prędkości obrotowej do momentu, kiedy znaczniki zaczną sprawiać wrażenie nieruchomych
Płytki z obwodami elektronicznymi W napędzie zawsze znajduje się jedna lub więcej płytek drukowanych z układami elektronicznymi sterującymi napędem głowic, odczytem i zapisem informacji, silnikiem napędowym dyskietki, czujnikami i wieloma innymi elementami urządzenia. Taka płytka logiczna jest interfejsem napędu dla karty kontrolera znajdującej się zwykle na płycie głównej komputera. Standardowym interfejsem wykorzystywanym we wszystkich napędach dyskietek w komputerach PC jest interfejs Shugart Associates SA-400, oparty na układzie scalonym kontrolera NEC 765. Interfejs wynaleziony przez Shugarta w latach 70. stał się podstawą większości interfejsów dyskietek. Dzięki temu, że stał się on standardem, dziś można kupić w sklepie dowolny napęd dyskietek i bezpośrednio, bez komplikacji, podłączyć go do posiadanego kontrolera Układy elektroniczne mogą ulec uszkodzeniu i zwykle trudno jest zdobyć ich zamienniki. Dlatego warto przechowywać nie nadające się do użytku uszkodzone lub rozregulowane mechanicznie napędy, gdyż stanowią one darmowe źródło części zapasowych - takich jak na przykład układy elektroniczne, dzięki któremu zepsuta stacja dyskietek może zostać naprawiona bardzo niewielkim kosztem
Kontroler Swego czasu kontroler stacji dysków w komputerach osobistych miał postać osobnej karty rozszerzenia wkładanej do gniazda magistrali ISA. Następne wersje kontrolerów były już bardziej wielofunkcyjne i na jednej karcie, oprócz kontrolera stacji dysków, zawierały interfejsy IDE/ATA, portów równoległych oraz portów szeregowych. Obecne komputery osobiste mają kontroler wbudowany w płytę główną, zwykle w postaci specjalizowanego układu wejścia/wyjścia, zawierającego także interfejsy portów szeregowych i równoległych. W odróżnieniu od interfejsu IDE wbudowanego w płytę główną, kontroler stacji dysków w ciągu ostatnich kilku lat nie uległ większym przeobrażeniom. Właściwie jedyna rzecz, jaka uległa zmianie, to maksymalna prędkość działania kontrolera. W miarę wzrostu gęstości danych na dyskietkach (oraz pojemności dyskietek), musiała także wzrastać prędkość kontrolera. Praktycznie wszystkie kontrolery stacji dysków w dzisiejszych komputerach obsługują prędkości transmisji do l Mbit/s, co wystarcza dla wszystkich standardowych stacji dysków. Kontrolery pracujące z prędkością do 500 kbit/s mogą obsłużyć wszystkie stacje dysków z wyjątkiem stacji 2,88 MB. Starsze komputery używały kontrolerów o prędkości do 250 kbit/s, co wystarczało jedynie do obsłużenia dyskietek 5,25" 360 kB oraz 3,5" 720 kB. Aby zainstalować standardową stację dysków 3,5" 1,44 MB w starszym komputerze, być może będziesz musiał wymienić kontroler dysków na nowszy model Najlepszym sposobem sprawdzenia szybkości kontrolera stacji dysków zainstalowanego w komputerze jest przejrzenie dostępnych opcji stacji dysków w systemowym BlOS-ie komputera Nawet jeśli nie masz zamiaru korzystać z ze stacji dysków 2,88 MB, powinieneś się jednak postarać, aby w twoim komputerze znajdował się najszybszy dostępny kontroler. Niektóre z dostępnych na rynku napędów taśm wykorzystują do połączenia z systemem interfejs stacji dysków, a wtedy wydajność kontrolera ma najważniejszy wpływ na szybkość odczytu i zapisu danych
Płyta czołowa Ptyta czołowa jest plastikowym elementem znajdującym się z przodu (u czoła) napędu. Jest ona zwykle elementem wymiennym, który od innych płyt może się różnić kolorem oraz konstrukcją. Dla większości napędów płyta czołowa jest szersza od pudła napędu Takie napędy mogą być instalowane jedynie od przodu obudowy komputera, gdyż ich płyta czołowa jest większa od otworu w obudowie. Niektóre napędy mają płytę czołową o takiej samej szerokości jak ich pozostała część, dzięki czemu możliwe jest instalowanie ich od tyłu komputera, co może stanowić pewne udogodnienie. Na przykład firma IBM wykorzystała to udogodnienie w późniejszych wersjach komputera XT do połączenia dwóch napędów dyskietek - o połowie wysokości każdy - które można wsuwać od tyłu obudowy, co ułatwia ich zamocowanie. Krawędź płyty czołowej napędu można też obciąć, umożliwiając w ten sposób zainstalowanie go od tyłu komputera
Złącza Niemal wszystkie napędy dyskietek są wyposażone w przynajmniej dwa złącza: złącze zasilania i złącze transmisji sygnałów sterujących oraz danych z/do napędu. Złącza te są powszechnie stosowane w przemyśle komputerowym. Czterostykowe jednorzędowe gniazdo (ang. nazwa: Mate-N-Lock) (rysunek 13.4), zarówno w wersji mniejszej, jak i większej, używane jest do zasilania napędu dyskietek; natomiast 34-stykowe złącze (również krawędziowe) służy do przesyłania danych oraz sygnałów sterujących. W napędach 5,25" z reguły wykorzystywane jest duże gniazdo zasilające i złącze krawędziowe, a w napędach 3,5" małe gniazdo zasilające i 34-stykowe złącze czołowe. Kontroler napędu oraz złącza logiczne i styki opisane są w dalszej części rozdziału
Rysunek 13.4. Żeńskie złącze zasilające napędu dyskietek
Zarówno większe, jak i mniejsze złącza od strony zasilacza to wtyczki rodzaju żeńskiego (zdziurkami). Pasują one do gniazd męskich (z bolcami) montowanych w obudowach napędów dyskietek. Jednym z częstszych problemów związanych z instalowaniem nowych napędów 3,5" w starszych systemach jest to, że stosowane tam zasilacze mają wyłącznie większe wtyczki, a montowane napędy - tylko mniejsze gniazda. Problem ten można rozwiązać za pomocą odpowiedniego kabla przejściowego, który umożliwia łączenie złączy o różnych rozmiarach. Kable takie dostępne są w większości sklepów z akcesoriami komputerowymi W poniższej tabeli zebrałem przeznaczenie poszczególnych styków gniazda zasilania napędu
Nie wszystkie napędy są wyposażone w osobne złącze zasilania i złącze danych. Na przykład IBM w większości systemów PS/2 stosuje pojedyncze złącze 34- lub 40-stykowe, służące do połączenia napędu zarówno z zasilaczem, jak i z kontrolerem. W skład niektórych starszych systemów PS/2 wchodziły specjalne wersje 3,5-calowego napędu 1,44 MB firmy Mitsubishi (o symbolu MF-355W-99), zaopatrzonego w 40-stykowe złącze zasilającosterujące. W innych z kolei systemach PS/2 montowany był 3,5-calowy napęd o pojemności 2,88 MB tej samej firmy (symbol MF365C-799MA), połączony z komputerem za pomocą 34-stykowego złącza zasilająco-sterującego. W większości standardowych komputerów PC wykorzystuje się 3,5-calowe napędy z 34stykowym złączem sterującym oraz oddzielnym, małym gniazdem zasilającym. Na rynku dostępne są również napędy 3,5" osadzone w ramkach montażowych o szerokości 5,25", wyposażone w specjalne adaptery umożliwiające podłączenie zarówno większej wtyczki przewodu zasilającego, jak i standardowego, 34-stykowego złącza krawędziowego do przesyłu danych. Dzięki temu napędy te doskonale nadają się do zamontowania w starszych systemach komputerowych.
Większość współcześnie sprzedawanych zestawów tego typu składa się z adaptera, złącza zasilania i sterowania, ramki 5,25" wraz z płytą czołową oraz sanek do montowania w systemach AT. Dzięki ramce montażowej i płycie czołowej możliwa jest instalacja napędu 3,5" w miejsce napędu 5,25".
Urządzenia konfiguracyjne napędu Większość napędów dyskietek jest fabrycznie skonfigurowana do instalacji w komputerach PC. W niektórych przypadkach, jeśli napęd nie jest od razu poprawnie ustawiony, konieczne jest samodzielne sprawdzenie lub zmiana konfiguracji. Większość napędów ma zestaw zworek i przełączników, przy czym między poszczególnymi modelami napędów często występują różnice. Praktycznie nie istnieją żadne standardy dotyczące nazywania, umiejscowienia czy działania przełączników i zworek. Istnieją wprawdzie pewne ogólne zasady, których należy przestrzegać, lecz aby poprawnie ustawić określony model napędu, znając wszystkie istniejące możliwości, konieczne są informacje od producenta, dostępne w stosownej dokumentacji. Przy zakupie samego napędu dokumentacja ta jest wręcz konieczna. W wielu napędach dyskietek stosowane są następujące elementy konfiguracyjne: * zworka wyboru napędu (drive select), * rezystory terminujące (terminating resistors) * zworka zmiany dyskietki (disk changeline), * zworka czujnika nośnika (media sensor jumper).
Zworka wyboru napędu (drive select) Napędy dyskietek są połączone z kontrolerem za pomocą połączenia łańcuszkowego (ang. daisy chairi) przy użyciu specjalnego kabla. Każdy napęd ma zworkę wyboru numeru urządzenia (Drive Select lub DS), której ustawienie decyduje o fizycznym numerze tego napędu. Niektóre napędy oferują cztery ustawienia owego parametru, co pokrywa się z oryginalną specyfikacją interfejsu SA-400, lecz kontrolery stosowane w komputerach osobistych (PC) obsługują najwyżej dwa napędy podłączone do jednego kabla. Niektóre kontrolery obsługują wprawdzie cztery napędy, lecz stosowane w ich przypadku połączenie ma postać dwóch kabli z maksymalnie dwoma napędami podłączonymi do każdego z nich. Każdy napęd podłączany za pomocą określonego kabla musi mieć inne ustawienie wyboru napędu. W typowej konfiguracji napęd, który ma się zgłaszać jako pierwszy (dysk A:), ma pierwszą pozycję wyboru napędu, natomiast drugi (dysk B:) - drugą. W niektórych napędach zworki umożliwiające odpowiednie skonfigurowanie napędu oznaczono symbolami DSO i DS1; w innych analogiczne elementy oznaczone sąjako DS1 i DS2. Zatem niektóre urządzenia ustawia się jako dysk A: przy użyciu zworki DSO, a inne za pomocą zworki DS1. W przypadku błędnego ustawienia jednego z napędów, obie stacje dyskietek mogą odpowiadać na sygnały z komputera jednocześnie (obie diody świecą w tym samym czasie) bądź też na nie w ogóle nie reagować. Konfiguracja za pomocą zworek DS zależy od rodzaju kabla stosowanego do łączenia napędów. W większości systemów wykorzystuje się skręt na kablu, który powoduje zamianę części sygnałów, w wyniku czego napędy podłączane za miejscem zamiany (za skrętem na kablu) mają inną numerację.
Powoduje to, że napędy o drugiej pozycji DS (ustawione jako dysk B:) są „widziane" przez kontroler jako mające pozycję pierwszą (jako dysk A:) i na odwrót. Aby stacje dyskietek podłączone do takiego kabla mogły działać poprawnie, muszą mieć te same ustawienia zwykle są ustawione w pozycji drugiej DS. Napęd podłączony na końcu kabla, po zmianie pozycji sygnałów w wyniku wspomnianego skrętu zgłasza się więc już nie jako dysk drugi (mimo drugiej pozycji DS), lecz jako pierwszy (skręt zmienia pozycję na pierwszą). System traktuje więc ów napęd jako dysk A:. Natomiast napęd podłączony w środku kabla (również mający ustawienie drugie DS, które jednak nie jest zmienione przez skręt na kablu) będzie rozpoznany jako dysk B:. Na rysunku 13.5 przedstawiony jest typowy kabel, w którym zamiana części sygnałów przez skręcenie kilku z jego żył umożliwia łączenie dwóch napędów dyskietek za pomocą jednego kabla podłączonego do jednego kontrolera Rysunek 13.5. Kabel lączący napędy dyskietek - kontrolerem, -e skrętem na żytach 10-16
Łączący napędy kabel typu IBM jest kablem wielożyłowym (34-stykowym), w którym żyły od 10 do 16 zostały wydzielone i odwrócone (skręcone) między złączami napędów (rys. 13.5). Owo odwrócenie powoduje zamianę sygnałów „drive select" (wybranie napędu) oraz „motor enable" (włączenie silnika) napędów pierwszego i drugiego, co powoduje odwrócenie ustawień DS napędu znajdującego się za skrętem. Dzięki temu we wszystkich napędach systemu, podłączonych za pomocą takiego kabla - niezależnie, czy napęd ma być dyskiem A: czy B: fizyczne ustawienie zworek DS jest takie samo, co upraszcza instalację i konfigurację wszystkie stacje dyskietek mają ustawiony drugi numer DS -niektóre na stałe -jak w przypadku pewnych napędów stosowanych przez IBM, w których ustawienie „zworki" DS było trwale wlutowane w płytkę drukowaną. W większości sprzedawanych napędów zworka DS jest fabrycznie ustawiona w położeniu drugim, co jest poprawne dla większości systemów, w których stosuje się kabel z zamienionymi sygnałami. Jeśli jednak wykorzystywany jest kabel pozbawiony złącza dla napędu drugiego i skrętu na żyłach 10-16, ustawienie „widziane" przez kontroler będzie dokładnie odpowiadać ustawieniom DS napędu. W takiej sytuacji można podłączyć tylko jeden napęd. Napęd ten powinien pełnić rolę dyskietki A:, w związku z czym jego zworkę DS należy ustawić w położeniu pierwszym
Rezystory terminujące Każdy nośnik sygnału elektrycznego lub kabel z wieloma połączeniami może być postrzegany jako magistrala (szyna zbiorcza). W większości przypadków musi być ona poprawnie zakończona po obu stronach rezystorami terminującymi (tzw. terminatorami), w celu umożliwienia bezbłędnego przesyłania sygnałów. Terminatory są tak zaprojektowane, aby tłumiły sygnały docierające do końca linii, zapobiegając ich odbiciu. Proste nałożenie, szum lub zniekształcenie może zakłócić pierwotny sygnał i uniemożliwić wymianę danych między napędem i kontrolerem. Inną funkcją rezystorów terminujących jest zapewnienie właściwego obciążenia buforów wyjściowych napędu i kontrolera. W większości starszych napędów 5,25" stosuje się rezystory terminujące w urządzeniu podłączonym na końcu kabla. Ich działanie polega na tłumieniu docierających do nich sygnałów. Większość wymiennych rezystorów terminujących wykorzystywanych w napędach 5,25" ma rezystancję od 150 do 300 omów. Na przykład, w typowym układzie z dwoma napędami 5,25" rezystor terminujący jest zainstalowany w napędzie A: (na końcu kabla) i usunięty z napędu B:. Litera dyskietki, jakiej odpowiada napęd, nie decyduje o obecności terminatorów; ważne, aby je umieścić w napędzie podłączonym na końcu kabla, zarazem usuwając lub wyłączając je w innych napędach znajdujących się na tym samym kablu. Większość napędów 3,5" ma zainstalowane stałe, nie podlegające konfiguracji rezystory terminujące. Jest to rozwiązanie optymalne, eliminujące potrzebę instalowania lub usuwania terminatorów, dzięki czemu nie ma zworki TR, którą należałoby ustawiać. Choć niektórzy nazywają to terminacją automatyczną, faktycznie w napędach tych stosuje się technikę tzw. terminacji rozproszonej. Polega ona na zainstalowaniu w każdym napędzie 3,5" rezystorów (oporników) o znacznie większej rezystancji (1000 do 1500 omów), stanowiących jedynie część całkowitego obciążenia. Rezystory te są ustawione na stałe i nie zachodzi potrzeba ich usuwania ani regulacji. Gdy jednocześnie podłączone są napędy 5,25" oraz 3,5", odpowiednią do miejsca podłączenia terminację powinno się ustawić w napędzie 5,25" i zignorować niezmienne ustawienia napędu 3,5". Rezystor terminujący z reguły przypomina wyglądem układ scalony pamięci - kość z 16 wyprowadzeniami (nóżkami) ułożonymi w dwóch rzędach (obudowa typu DIP). Urządzenie to jest zbudowane z ośmiu wzajemnie połączonych rezystorów (oporników), umożliwiających niezależną terminację każdego z ośmiu sygnałów interfejsu. Zwykle taki terminujący „układ scalony" różni się od pozostałych kolorem. Typowy kolor obudowy takiego elementu to pomarańczowy, żółty, niebieski lub biały, natomiast pozostałe są koloru czarnego. Niektóre napędy wykorzystują układ rezystorów o wyprowadzeniach ułożonych w jednym rzędzie, umieszczonych w wąskiej obudowie (typu SIP) z ośmioma lub więcej nóżkami. Firma IBM zawsze oznacza terminatory napędów naklejką z napisem „T-RES", dzięki czemu łatwo je rozpoznać. Wiele urządzeń ma rezystory terminujące wbudowane na stałe, których włączanie i wyłączanie odbywa się za pomocą zworki lub grupy przełączników (zwykle oznaczonych jako TM lub TR). Należy pamiętać, że nie we wszystkich napędach jest wykorzystywany ten sam typ rezystorów oraz że mogą być one umieszczone w różnych miejscach napędów, w zależności od producenta. W razie wątpliwości najlepiej sięgnąć po dokumentację producenta, gdyż zawiera ona opis położenia, wyglądu, jak również sposobu włączania i wyłączania terminacji, a czasem nawet dokładne charakterystyki rezystorów.
Po wyjęciu terminatorów warto je zachować na później - mogą okazać się niezbędne przy zmianie położenia napędu w systemie bądź przy instalowaniu go w innym komputerze. Rysunek 13.6. Typowe rezystory terminujące lub przeląciniki terminacji imijdiijące się u napędiie dyskietek
Nie należy się również martwić zakończeniem (terminacją) kabla od strony kontrolera, ponieważ ma on (kontroler) wbudowane odpowiednie rezystory terminujące. Warto pamiętać, że w wielu przypadkach mimo niewłaściwego ustawienia terminatorów system wydaje się pracować poprawnie, choć podwyższone jest wtedy prawdopodobieństwo wystąpienia błędów. W starszych systemach, w których stosowane były jedynie napędy 5,25", nieodpowiednie ustawienie terminatorów całkowicie uniemożliwiało ich pracę
Sygnał DC Standardowe kontrolery i napędy dyskietek w komputerach PC wykorzystują specjalny, przesyłany stykiem numer 34 (trzydziestym czwartym pinem), sygnał DC (Diskette changeline),który informuje o zmianie dyskietki, a dokładniej o tym, czy dyskietka obecna w napędzie podczas poprzedniej operacji wciąż się w nim znajduje. Sygnał ten ma postać impulsu zmieniającego w kontrolerze stan rejestru, który informuje o wyjęciu, względnie włożeniu dyskietki. Rejestr ten jest czyszczony, gdy kontroler wysyła impuls przesunięcia głowic, a napęd potwierdza wykonanie polecenia. Od tej chwili kontroler „wie", że dana dyskietka została włożona do napędu. Jeśli przed następnym odwołaniem do napędu kontroler nie otrzyma sygnału zmiany dyskietki, można przyjąć, że w napędzie ciągle znajduje się ta sama dyskietka. Zatem poprzednio odczytane informacje znajdujące się w pamięci mogą zostać ponownie wykorzystane bez konieczności odczytywania ich z dyskietki.
Dzięki temu komputery mogą buforować w pamięci zawartość tablicy alokacji plików (FAT) i strukturę katalogów na dyskietce. Eliminuje to powtarzające się operacje odczytu tych obszarów dyskietki i zwiększa efektywną szybkość działania napędu. Przesunięcie dźwigni zamknięcia dyskietki lub naciśnięcie przycisku wyrzucającego dyskietkę w napędzie, który obsługuje sygnał zmiany dyskietki, powoduje wysłanie do kontrolera impulsu DC, który zeruje rejestr i wskazuje, że dyskietka w napędzie została zmieniona. Następnie buforowane z dyskietki dane są usuwane z bufora, gdyż nie ma pewności, że ta sama dyskietka została ponownie włożona do napędu. W systemach klasy AT sygnał DC jest wykorzystywany do przyśpieszenia operacji dyskowych. Dzięki zdolności do wykrywania zmiany dyskietki, komputer AT może pozostawiać znajdującą się w buforze pamięci zawartość tablicy FAT i strukturę katalogów w pamięci RAM. Każda kolejna operacja odczytu jest dzięki temu znacznie szybsza, ponieważ nie wszystkie informacje muszą być ponownie odczytywane podczas każdego odwołania się do napędu. Jeśli sygnał DC został wyzerowany (i ma wartość 1), system AT ,,dowiaduje się" o zmianie dyskietki i ponownie odczytuje z niego potrzebne informacje. Efekty działania sygnału DC można sprawdzić przeprowadzając prosty eksperyment. Po uruchomieniu komputera AT w systemie DOS, należy umieścić sformatowaną dyskietkę z danymi w napędzie A:. Napęd A: może być każdego typu, poza napędem 5,25 o podwójnej gęstości. Dyskietka może być dowolnego typu, włączając w to dyskietkę DD (o podwójnej gęstości) 360 kB. Następnie należy wpisać polecenie
DIR A: Spowoduje to zaświecenie się diody aktywności napędu dyskietek, a następnie wyświetlenie zawartości katalogu głównego dyskietki. Proszę zwrócić uwagę, ile czasu zajęło odczytywanie informacji z dyskietki, zanim zostały one wyświetlone na ekranie. Teraz. nie dotykając stacji dyskietek, proszę ponownie podać polecenie DIR A :, obserwując jednocześnie diodę aktywności napędu i ekran komputera. Proszę zaobserwować, ile czasu tym razem potrzeba było na wykonanie tej samej operacji. Za drugim razem zawartość katalogu dyskietki (A:) powinna zostać wyświetlona prawie natychmiast po naciśnięciu klawisza [Enter]. Czas potrzebny na odczytanie informacji z dyskietki skrócił się bowiem niemal do zera. Informacje o katalogu zostały po prostu pobrane z buforów w pamięci RAM, a nie odczytane z dyskietki. Teraz proszę wyjąć i włożyć z powrotem dyskietkę do napędu. Po raz kolejny proszę wpisać polecenie DIR A:. Czas odczytu zawartości katalogu wydłużył się, ponieważ system otrzymał sygnał zmiany dyskietki, więc zakłada, że w napędzie znajduje się inna dyskietka i ponownie odczytuje z niej wszystkie informacje. Starsze kontrolery obsługujące napędy o niskiej gęstości w komputerach XT i PC ignorują sygnał DC. Systemy takie „nie interesują się" sygnałem na 34 pinie. Komputery PC i XT zachowują się tak, jakby dyskietka w stacji była zmieniana przed każdym odwołaniem się do niej, przez co katalog dyskietki i tablica FAT jest odczytywana za każdym razem od nowa stanowi to jedną z przyczyn wolniejszego działania napędów dyskietek w tych systemach. Zaskakujący problem może powstać po zainstalowaniu pewnych napędów w systemach 16bitowych lub nowszych. Jak już wspomniałem, niektóre napędy wykorzystują pin 34 do przesyłania sygnału gotowości (RDY - od ang. ready - gotowy). Sygnał ten jest wysyłany w sytuacji, gdy dyskietka została włożona do napędu i obraca się. W przypadku zainstalowania takiego napędu, system „uważa", że nieustannie odbiera sygnał zmiany dyskietki, co może być przyczyną problemów. Zwykle objawiają się one zgłoszeniem błędu „Drive not ready" (napęd nie gotowy) i brakiem możliwości korzystania z napędu. Jedyną przyczyną obecności w niektórych napędach sygnału RDY jest jego zdefiniowanie w standardzie interfejsu Shugart SA-400; sygnał ten nigdy nie był wykorzystywany w komputerach PC.
Największe problemy pojawiają się w sytuacji, gdy napęd nie wysyła sygnału DC wtedy, kiedy powinien. Jeśli w ustawieniach CMOS systemu skonfigurowany jest inny typ napędu niż 360 kB (ten typ nie wysyła sygnału DC), system oczekuje, że napęd wyśle sygnał DC po każdym wyjęciu dyskietki z napędu. Jeśli jednak napęd nie jest poprawnie skonfigurowany do wysyłania tego sygnału, system nigdy nie wykryje zmiany dyskietki. Wtedy, nawet po zmianie dyskietki, komputer wciąż będzie się zachowywał tak, jakby w napędzie dalej znajdowała się dyskietka uprzednio się tam znajdująca, której tablica FAT i informacje o katalogach nadal będą przechowywane w pamięci RAM. Jest to o tyle niebezpieczne, że informacje te mogą zostać częściowo zapisane na innych dyskach, włożonych później do napędu. Osoby, które spotkały się z komputerami typu AT wyświetlającymi katalogi z poprzednio włożonej dyskietki (nawet po jej wyciągnięciu z napędu) znają omawiany problem „z pierwszej ręki". Niebezpieczeństwo polega na tym, że katalogi i tablice FAT wielu dyskietek wkładanych następnie do napędu są narażone na nadpisanie przez katalogi i tablice z dyskietki pierwszej. O ile w ogóle będzie to możliwe, odzyskanie utraconych w ten sposób danych będzie wymagać ciężkiej pracy z programami narzędziowymi, takimi jak Norton Utilities. Opisane problemy z sygnałem DC najczęściej spowodowane są nieprawidłowo skonfigurowanym napędem. Dokładniejszy opis tego zagadnienia zawarty jest w podrozdziale „Problem nie istniejących katalogów (sygnał DC)", w dalszej części rozdziału. W przypadku napędu 5,25" o pojemności 360 kB, stan pina 34 należy ustawić na otwarty (rozłączony), niezależnie od rodzaju komputera, w jaki napęd ten jest wmontowany. Jedyną inną opcją, jaką można ustawić w tego typu napędach, jest podanie na pin 34 sygnału RDY, co spowoduje błędne działanie napędu. W przypadku stosowania kontrolera obsługującego jedynie niską gęstość zapisu, takiego jak w komputerach XT lub PC, sygnał z pina 34 jest zawsze ignorowany. Jeśli instalowany jest napęd 5,25" o pojemności 1,2 MB lub 3,5" o pojemności 720 kB, 1,44 MB lub 2,88 MB, należy ustawić podawanie sygnału zmiany dyskietki (DC). Podstawowa zasada jest dosyć prosta: * w napędach 360 kB pin 34 należy zostawić nie podłączony (otwarty), *w pozostałych napędach na pin 34 należy podać sygnał DC (zmiany dyskietki).
Czujnik rodzaju nośnika Ten element konfiguracyjny znaleźć można jedynie w napędach 3,5" o pojemności 1,44 MB lub 2,88 MB. Odpowiednia zworka, oznaczona literami MS, musi zostać ustawiona w celu włączenia specjalnych czujników, sprawdzających obecność otworów w dyskietkach HD 1,44 MB i ED 2,88 MB. Oznaczenie zworki (lub zworek) może znacznie się różnić w poszczególnych modelach napędów. W wielu napędach zworki te są ustawione na stałe, bez możliwości zmiany konfiguracji. Zależnie od sposobu wykrywania rodzaju nośnika, dostępne są trzy rodzaje konfiguracji: • brak wykrywania rodzaju nośnika (czujnik wyłączony lub brak czujnika), • pasywne wykrywanie nośnika (czujnik włączony), • aktywne (inteligentne) wykrywanie nośnika (czujnik obsługiwany przez kontroler lub BI0S).
W większości napędów wykorzystywane jest pasywne wykrywanie nośnika. Skonfigurowanie pasywnego wykrywania nośnika umożliwia napędowi określenie wymaganego poziomu zapisu, co jest z reguły wymagane podczas instalacji tego rodzaju napędów ze względu na błąd w konstrukcji kontrolerów dyskietek i dysków twardych firmy Western Digital, stosowanych w komputerach IBM AT. Błąd ten powoduje, że podczas formatowania lub zapisu kontroler nie może prawidłowo ustawić trybu zapisu w napędzie, do którego włożono dyskietkę DD. Po uaktywnieniu czujnika nośnika, tryb zapisu nie zależy już bowiem od kontrolera, lecz od stanu tego czujnika. Jeśli nie ma pewności, że posiadany kontroler pracuje poprawnie, należy sprawdzić, czy napęd HD jest wyposażony w czujnik rodzaju nośnika (niektóre starsze napędy nie mają tego czujnika) oraz czy został on prawidłowo włączony. Wszystkie napędy o pojemności 2,88 MB ustalają odpowiedni tryb pracy na podstawie czujnika nośnika. W rzeczywistości napędy 2,88 MB mają dwa niezależne czujniki nośnika, gdyż w dyskietkach ED otwór identyfikacyjny znajduje się w innym miejscu niż w dyskietkach HD. Poza nielicznymi wyjątkami, 3,5-calowe napędy HD (zapisu o wysokiej gęstości w większości komputerów nie obsługują prawidłowo trybu DD (podwójnej gęstości) o ile napęd sam nie kontroluje wartości prądów zapisu (poziomu nagrywania) na podstawił stanu czujnika. Owe wyjątki to przede wszystkim systemy z kontrolerami zintegrowanym na płycie głównej, w tym większość starszych modeli IBM PS/2 i Compaq, a także większość komputerów typu laptop i notebook pochodzących od różnych producentów Kontrolery w tych komputerach są wolne od opisanego wcześniej błędu, dzięki czemu potrafią prawidłowo przełączać tryb pracy, bez pomocy czujnika nośnika. W komputerach takich nie ma znaczenia to, czy czujnik nośnika został włączony. Jeśli tak, o trybie pracy napędu decyduje rodzaj włożonej dyskietki, podobnie jak w większości komputerów zgodnych z PC. W przeciwnym przypadku trybem pracy steruj kontroler dyskietki, który z kolei jest kontrolowany przez DOS. Jeśli dyskietka jest poprawnie sformatowana, DOS odczytuje jej sektor startowy i na j go podstawie ustawia odpowiedni tryb pracy. Jeśli dyskietka nie jest sformatowali system DOS nie jest w stanie stwierdzić, jaki typ dyskietki włożono, więc tryb ustaw na HD lub ED, w zależności od rodzaju napędu. W czasie formatowania dyskietki w napędzie z wyłączonym czujnikiem nośnika (j w większości systemów PS/2) gęstość zapisu zależy wyłącznie od podanego przez użytkownika polecenia FORMAT, a nie od typu dyskietki. Na przykład jeśli włożono dyskietkę DD do napędu HD w komputerze IBM PS/2 Model 70 i wydano polecenie FORMAT A:, to rozpocznie się formatowanie w trybie HD, ponieważ nie podano właściwe parametru (/F: 720) określającego format DD. W napędzie z włączonym czujnikiem nośnika, nieprawidłowe polecenie formatowania spowoduje wystąpienie błędu i pojawię się komunikatu „invaiid media" (nieprawidłowy nośnik) lub „Track o bad" (błąd ścieżce 0). W tej sytuacji czujnik nośnika zapobiega nieprawidłowemu sformatowaniu dyskietki, którego to zabezpieczenia brakuje w starszych systemach IBM PS/2 Większość nowszych systemów PS/2, włącznie z tymi, które mają standardowo z; stalowane napędy 2,88 MB, wyposażono w tzw. aktywne (lub inteligentne) wykrywacze nośnika. Oznacza to, że czujnik nie tylko wykrywa rodzaj znajdującej się w napęd dyskietki i ustawia odpowiedni tryb pracy, lecz również informuje kontroler (a ta B10S) o typie dyskietki. Systemy z opisanym rozwiązaniem nie wymagają podania odpowiedniego parametru formatowania. W takich komputerach polecenie FORMAT „wie", jaki typ dyskietki znajduje się w napędzie i odpowiednio ją formatuje. Mając komputer z inteligentnym wykrywaniem nośnika, można spokojnie zapomnieć o wszystkich parametrach i przełącznikach wymaganych do sformatowania dyskietki w odpowiednim trybie; system ustala te wartości automatycznie. Wiele zaawansowanych systemów, ta jak nowsze komputery PS/2 i Hewlett-Packard, wykorzystuje ten system wykrywania nośnika.
Kontroler stacji dyskietek Adapter napędu
Napędy Nie podłączone 2, 4,6 zewnętrz Sygnał indeksowy 8 ne
Uruchamianie silnika napędu A 10 Wybranie napędu B 12 Wybranie napędu A 14 Uruchamianie silnika napędu B 16 Kierunek obrotu silnika skokowego 18 Impuls skokowy 20
Kontroler dyskietek zbudowany jest z obwodów umieszczonych na osobnej karcie bądź na płycie głównej komputera, pełniących rolę interfejsu między systemem i napędami dyskietek. W większości komputerów klasy PC oraz XT kontrolery te znajdują się na osobnej karcie, zajmującej jedno z gniazd rozszerzeń. Systemy AT mają natomiast kontroler dyskietek i dysków twardych zintegrowany na jednej karcie, również instalowanej w gnieździe rozszerzeń. W większości nowszych komputerów kontroler znajduje się na płycie głównej. Niezależnie od omawianych rozwiązań, elektryczne połączenie kontrolerów z napędami nie ulegało, poza nielicznymi wyjątkami, zmianom. Kontroler początkowo stosowany w komputerach IBM PC oraz XT był kartą o 3/4 długości normalnej karty rozszerzeń, potrafiącą sterować nawet czterema napędami dyskietek. Dwa napędy można było podłączyć do 34-stykowego złącza krawędziowego karty, a dwa następne do 37-stykowego gniazda z tyłu. Złącza te oraz poszczególne wyprowadzenia z kontrolera przedstawione są na rysunkach 13.7 i 13.8 "Rysunek 13.7. Wewnętrzne złącze kontrolera napędów: dyskietekwkomputerach PC
34 pionowe złącze krawędziowe z kluczem
Rysunek 13.8. Zewnętrzne złącze kontrolera napędów dyskietek w komputerach PC oraz XT
Przy standardowych poziomach TTL INIC używane
i-o
Sygnał indeksowy 6 Uruchamianie silnika napędu C 7^ Wybranie napędu D 8
Wybranie napędu C 9 Uruchamianie silnika napędu C 10 Kierunek obrotu silnika skokowego 11 Napędy Impuls skokowy 12 zewnętrzne Zapisywanie danych 13 Włączenie zapisu 14 Czujnik ścieżki zerowej 15 ^ Ochrona przed zapisem 16 Odczytywanie danych 17^ Wybieranie głowicy 1 18 Masa 20-37
Adapter napędu
W komputerach AT stosowano kartę firmy Western Digital, na której znajdował się sterownik napędu dysków twardych, jak i sterownik napędu dyskietek. Umiejscowienie złącza oraz jego wyprowadzenia (styki) przedstawione są na rysunku 13.9. IBM wykorzystywał w komputerach AT dwie odmiany tego kontrolera. Pierwsza z nici miała 12,2 cm wysokości, co w komputerach AT było maksymalną dopuszczalną wysokością karty. Karta ta była odmianą kontrolera Western Digital WD1002-WA2 sprzedawanego przez dystrybutorów i dealerów. Następna generacja kart miała już tyłki 10,7 cm wysokości, dzięki czemu można było je instalować nie tylko w obudowie komputerów AT, ale również w komputerach XT-286. Karty te stanowiły odpowiedni] kontrolera Western Digital WD1003WA2, również dostępnego na rynku
Rysunek 13.9. Złącze kontrolera Dyskietki w komputerach AT
Przy standardowych poziomach TTL Zapis prądem o zmniejszonym natężeniu 2 Nie podłączone 4^ Nie podłączone 6 Sygnał indeksowy 8 Uruchamianie silnika napędu 1 10 Wybranie napędu 2 12 Wybranie napędu 1 14 Uruchamianie silnika napędu 2 16 Wybieranie kierunku 18^ Krok 20 Zapisywanie danych 22 Włączanie zapisu 24 Czujnik ścieżki zerowej 26 Ochrona przed zapisem 28 Odczytywanie danych 30 Wybór strony 1 32 Zmiana dyskietki 34
Fizyczne parametry dyskietek i ich działanie W komputerach kompatybilnych z PC mogą być stosowane napędy aż pięciu typów. W niniejszym podrozdziale opisano fizyczne parametry i działanie każdego rodzaju dyskietki i każdego rodzaju napędu. Dyskietki i napędy ogólnie dzielą się na dwie klasy: 5,25" oraz 3,5". Fizyczne wymiary i elementy składowe typowej dyskietki 3,5" oraz 5,25" podane są w dalszej części rozdziału Zasady działania napędu dyskietek są dość proste. Dyskietka w napędzie obraca się z szybkością 300 lub 360 obrotów na minutę. Większość napędów wykorzystuje szybkość 300 obrotów na minutę; jedynie w napędach 5,25" o pojemności 1,2 MB dyskietki obracają się z szybkością 360 obrotów na minutę (nawet podczas .odczytu lub zapisu informacji na dyskietkach 360 kB). W trakcie obracania się dyskietki, głowice mogą poruszać się do środka lub na zewnątrz dyskietki o odległość ok. l", zapisując 40 lub 80 ścieżek.
Ścieżki są zapisywane po obu stronach dyskietki, dlatego czasem nazywa sieje cylindrami. Na cylinder składają się ścieżki znajdujące się na górnej i dolnej stronie dyskietki. Głowice zapisują dane wykorzystując kasowanie tunelowe, w której to procedurze zapisywana jest określonej szerokości ścieżka, po czym kasowane są jej brzegi, dzięki czemu eliminuje się zakłócenia ze ścieżek sąsiednich. Różnice w szerokości ścieżek zapisywanych przez napędy 5,25" mogą spowodować problemy z wymianą danych. Przyczyną tych problemów jest to, że ścieżki zapisywani przez napędy DD są niemal dwukrotnie szersze od zapisywanych przez napędy HD Problemy pojawiają się w sytuacji, gdy dane na dyskietkach pierwotnie zapisanych w napędzie DD zostały uaktualnione za pomocą napędu HD. Nawet w trybie 360 kB napęd HD nie potrafi całkowicie usunąć ścieżki zapisanej przez napęd 360 kB. Problem pojawia się, gdy taka dyskietka trafi do napędu 360 kB: będzie on odczytywał nowe dane, zapisane między pozostałościami poprzednio zapisane ścieżki. Ponieważ napęd nie jest w stanie rozróżnić zapisanych sygnałów, na ekranie pojawi się komunikat „Abort, Retry, Ignore" (anuluj, powtórz, zignoruj). Problem ten ni pojawia się, jeśli nowa dyskietka (tzn. taka, na której nigdy nie zapisywano informacji zostanie sformatowana w napędzie 1,2 MB z opcją ,,/4", ustawiającą format 360 kB Zależnie od wersji systemu DOS, dyskietki 360 kB można również formatować w napędzie 1,2 MB, stosując opcje ,,/N:9", ,,/T:40" lub „/F-.40". Napędu 1,2 MB można następnie używać do zapisywania danych na dyskietce 360 kB, gdyż każdy zapisany plik uda się odczytać za pomocą 40-ścieżkowego napędu 360 kB Opisywana technika została dobrze sprawdzona podczas przenoszenia danych między systemami AT, wyposażonymi wyłącznie w napędy 1,2 MB, a komputerami XT lub PC, posiadającymi wyłącznie napędy 360 kB. Kluczem do tej metody jest stosowanie dyskietek nowych bądź wyczyszczonych magnetycznie za pomocą silnego magnesu lub odpowiedniego narzędzia de magnetyzującego. Zwykłe formatowanie dyskietki nie pomoże, gdyż nie powoduje ono usunięcia danych znajdujących się na dyskietce, lecz zapisanie ich przez inne dane na całej powierzchni dyskietki'
Właściwości magnetyczne dyskietki Dyskietki formatu HD, wykorzystujące specjalne nośniki, wymagają znacznie wyższych poziomów (prądów) zapisu niż dyskietki DD. Osoby pytane o to, które dyskietki są bardziej czułe magnetycznie: 1,2 MB czy 360 kB, z reguły odpowiadają nieprawidłowo (o ile wcześniej nie zapoznały się z odpowiednimi materiałami). Odpowiedź, że bardziej czułe są dyskietki 1,2 MB, jest błędna. Dyskietki HD są w przybliżeniu o połowę mniej czułe magnetycznie od dyskietek DD. Dyskietki HD są w związku z tym nazywane dyskietkami o wysokiej koercji, gdyż wymagają znacznie silniejszego pola magnetycznego od dyskietek DD. Siłę pola magnetycznego mierzy się w erstedach [Oe]. Do zapisu na dyskietkach 360 kB wymagane jest pole o natężeniu 300 (erstedów), podczas gdy dyskietki 1,2 MB potrzebują aż 600. Ponieważ dyskietki HD wymagają przy zapisie dwukrotnie silniejszego pola magnetycznego, dyskietek 1,2 MB HD nie powinno się formatować do pojemności 360 kB, a dyskietek 360 kB do pojemności 1,2 MB. Opisany nieprawidłowy sposób formatowania może spowodować zaskakujący problem: dyskietkę 360 kB można zapisać danymi, które są następnie trudne do usunięcia. Sygnały zapisane w formacie HD są dwukrotnie silniejsze niż sygnały używane podczas zapisu w formacie DD. Jak wyeliminować ten problem? Przy próbie ponownego sformatowania dyskietki w napędzie 360 kB, dane będą zapisywane za pomocą mniejszych prądów, co nie zawsze wystarcza do usunięcia niepożądanych sygnałów o większym natężeniu. Przy próbie ponownego sformatowania w napędzie 1,2 MB, w trybie 360 kB (parametr ,,/4" lub równoznaczny poleceniu FORMAT), napęd HD zacznie zapisywać w trybie o zmniejszonym natężeniu prądu, co znowu może okazać się niewystarczające.
Problem ten można rozwiązać na kilka sposobów. Można na przykład wyrzucić dyskietkę i doliczyć jej koszt do ceny zdobytych doświadczeń, można też rozmagnesować dyskietkę za pomocą silnego magnesu lub odpowiedniego urządzenia de magnetyzującego. W ten sposób na powierzchni dyskietki wprowadza się losowy układ domen magnetycznych, co odpowiada przywróceniu pierwotnego stanu dyskietki. Urządzenie takie, o ile będzie dostępne w sklepie elektronicznym, powinno kosztować około 100 złotych Odwrotny problem związany z formatowaniem dyskietek jest rzadziej spotykany, lecz wart opisania, jako że można się z nim jeszcze zetknąć: formatowanie dyskietki HD w trybie DD. Nie powinno się (zwykle nie jest to w ogóle możliwe) formatować dyskietki 1,2 MB do pojemności 360 kB. W takiej sytuacji napęd wykorzystuje mniejsze prąd^ zapisu, które tworzą pole magnetyczne zbyt słabe do zapisania danych na dyskietce l ,2 MB. Najczęstszym efektem takiego postępowania jest natychmiastowe wyświetlenie komunikatu o błędzie podczas formatowania: „invaiid media" (nieprawidłowy nośnik) lub „Track o bad - disk unusable" (błąd na ścieżce O - dyskietka nie nadaje się do użytku). Na szczęście system zwykle nie zezwala na popełnienie takiego błędu. Powyżej opisane problemy trapią napędy dyskietek 5,25" i nie występują w przypadku napędów 3,5". Ponieważ zarówno napędy HD jak i DD zapisują taką samą liczbę ścieżek o identycznej szerokości, nie ma możliwości wystąpienia problemów podczas zapisu danych przez jeden typ napędu na dyskietce zapisanej uprzednio za pomocą napędu innego typu. Dzięki temu producent komputerów nie musi oferować wersji D.D napędu 3,5" w systemach z napędami HD lub ED. Napędy HD i ED potrafią idealnie naśladować pracę napędu DD, a napęd ED - również pracę napędu HD o pojemności 1,44 MB. Napędy HD i ED mogą jednak stanowić problem dla niedoświadczonych użytkowników próbujących formatować dyskietki do niewłaściwych pojemności. Choć napęd ED potrafi czytać, zapisywać i formatować dyskietki DD, HD i ED, każda dyskietka powinna być formatowana na odpowiedniej dla niej pojemności. Z tego powodu dyskietka ED powinna być formatowana jedynie do pojemności 2,88 MB - nigdy do 1,44 MB czy 720 kB. Dyskietki zawsze powinny mieć naniesiony format, do którego zostały przeznaczone. Można sprawić sobie spory kłopot, jeśli do napędu komputera IBM PS/2 Model 50, 60, 70 lub 80 włoży się dyskietkę 720 kB i wyda polecenie FORMAT A:. W takiej sytuacji rozpocznie się formatowanie dyskietki 720 kB w trybie 1,44 MB, co w najlepszym wypadku sprawi, że stanie się ona bardziej zawodna i będzie wymagać zastosowania silnego magnesu przed ponownym (poprawnym) jej sformatowaniem Natomiast korzystanie z nieprawidłowo sformatowanej dyskietki niesie ze sobą poważne ryzyko utraty danych. Powyższy problem nigdy by nie zaistniał, gdyby firma IBM wykorzystała czujnik nośniki w napędach dyskietek systemów PS/2. Napędy identyfikujące nośnik w celu określani; trybu pracy są lepiej zabezpieczone przed nieprawidłowym sformatowaniem dyskietki W przypadku próby sformatowania dyskietki do nieodpowiedniej dla niego pojemność napędy takie nie dopuszczają do formatowania, wyświetlając przy tym odpowiedni komunikatu błędu.
Logiczna struktura dyskietki Każdy rodzaj napędu może utworzyć na dyskietkach różną liczbę sektorów i ścieżek. W niniejszym punkcie opisany jest sposób „widzenia" napędu przez system DOS i podane są tu również definicje napędów z punktu widzenia systemu DOS, a także parametry cylindrów i klastrów
Sposób korzystania z dyskietki przez system operacyjny Dla systemu operacyjnego dane na dyskietce zorganizowane są w ścieżki i sektory. Ścieżki są wąskimi, koncentrycznymi okręgami na powierzchni dyskietki. Sektory można postrzegać jako wycinki okręgu. System DOS w wersji 1.0 i 1.1 potrafi odczytywać i zapisywać dyskietki 5,25" z 40 ścieżkami (o numerach 0-39) na każdej ze stron i ośmioma sektorami (ponumerowanymi 1-8) na każdej ze ścieżek. W wersji 2.0 tego systemu liczba sektorów została zwiększona do 9, dzięki czemu te same dyskietki osiągnęły większą pojemność. W komputerach AT z napędami 5,25" 1,2 MB wykorzystywany był system DOS 3.0, obsługujący w tych napędach 15 sektorów na ścieżce i 80 ścieżek na stronie; z kolei DOS 3.2 obsługuje napędy 3,5", zapisujące 9 sektorów na ścieżce i 80 ścieżek na stronie dyskietki, a DOS 3.3 - napędy 3,5", zapisujące 18 sektorów na ścieżce i 80 ścieżek na stronie. Odległość między ścieżkami, a co za tym idzie liczba ścieżek na stronie, jest stałą cechą napędu, zależną od jego konstrukcji mechanicznej i elektronicznej Tabela 13.3. Formaty dyskietek 3,5" Dyskietki 3,5" Bajtów w sektorze Sektorów na ścieżce Ścieżek na stronie Stron Pojemność [kilobajty] Pojemność [megabajty] Pojemność [miliony bajtów]
Dyskietki 720 kB(DD) 512 9 80 2 720 0,703 0,737
Dyskietki 1,44 MB (HD) 512 18 80 2 1 440 1,406 1,475
Dyskietki 2,88 MB (ED) 512 36 80 2 2880 2,813 2,949
Różnice między pojemnościami różnych formatów można obliczyć mnożąc liczbę sektorów na ścieżce przez liczbę ścieżek na stronie, a otrzymany wynik - przez stałą liczbę dwóch stron i 512 bajtów w sektorze. Warto zaznaczyć, że pojemność dyskietki może być wyrażana na różne sposoby. Najbardziej popularną metodą jest podawanie pojemności w kilobajtach (l kB to 1024 bajty). Sprawdza się to w przypadku dyskietek 360 kB i 720 kB, lecz sprawia dziwne wrażenie po zastosowaniu do dyskietek 1,44 MB i 2,88 MB. Jak widać, dyskietka 1,44 MB ma w istocie pojemność l 440 kB, a nie l ,44 megabajta. Ponieważ megabajt to 1024 kilobajty, dyskietka szumnie oznaczana jako 1,44 MB jest w rzeczywistości dyskietką o pojemności ledwie 1,406 MB. Innym sposobem wyrażania pojemności dyskietki jest posługiwanie się milionami bajtów. W takiej sytuacji dyskietka 1,44 MB ma pojemność 1,475 miliona bajtów. Aby dodatkowo skomplikować sprawę, zarówno megabajty, jak i miliony bajtów zapisuje się skrótowo jako MB lub M. Brakuje po prostu powszechnie zaakceptowanej definicji skrótów M i MB.
Podobnie jak czyste kartki papieru, również nowe dyskietki nie zawierają żadnych informacji. Formatowanie przypomina rysowanie na kartce linii ułatwiających pisanie. W trakcie formatowania nanoszone są na dyskietkę informacje wymagane przez system DOS do przechowywania zawartości katalogów i tablicy FAT. Podanie wraz z poleceniem FORMAT parametru „/s" (zapisanie systemu) przypomina tworzenie strony tytułowej. Polecenie to zapisuje na dyskietce fragmenty systemu DOS, które są potrzebne do uruchomienia komputera. System operacyjny rezerwuje niemal całą ścieżkę przy zewnętrznej krawędzi dyskietki (ścieżkę 0) na własne potrzeby. Sektor nr l na tej ścieżce zawiera DOS Boot Record (DBR - Rekord startowy DOS) lub inaczej Boot Sector (Sektor startowy albo „bootujący"), potrzebny do rozpoczęcia pracy systemu. Kilka następnych sektorów przeznaczonych jest na tablicę FAT, pełniącą rolę „hotelowego recepcjonisty". Jego zadaniem jest pamiętanie, w których klastrach, czyli jednostkach alokacji („pokojach") na dyskietce przechowywane są fragmenty plików, a które z nich są puste. Następnych kilka sektorów zawiera główny katalog dyskietki, w którym system DOS zapisuje informacje dotyczące nazw oraz położenia początków plików na dyskietce. Większość tych informacji jest wyświetlana po wydaniu polecenia DIR. W żargonie producentów komputerowych mówi się, że proces zarządzania omawiany mi informacjami jest dla użytkownika „przezroczysty", co znaczy, że użytkownik nie musi (i na ogół nie może) decydować, w którym miejscu na dyskietce informacje maj zostać zapisane. Choć proces ten jest „przezroczysty", nie znaczy to, że jako użytków nie powinniśmy być świadomi czynności wykonywanych za nas przez system DOS. Podczas zapisywania danych DOS zawsze próbuje zapełnić najwcześniejsze wolne sektory dyskietki. Ponieważ plik może być większy od pojedynczego bloku sektę rów, DOS zapisuje pozostałą część pliku w następnym wolnym bloku sektorów. W te sposób plik może zostać zapisany w kilku fragmentach, zapełniając dziury powstałe p usuniętych mniejszych plikach. Duży plik całkowicie wypełnia taką dziurę; następni DOS dalej szuka wolnego miejsca na dyskietce, idąc od ścieżek zewnętrznych do wewnętrznych. Reszta pliku jest zapisywana w następnym wolnym obszarze dyskietki Opisane czynności są wykonywane stale, więc po pewnym czasie wszystkie pliki na dyskietce mogą być wzajemnie poprzeplatane. Nie stanowi to problemu dla systemu DOS, gdyż został on zaprojektowany do zarządzania plikami w taki sposób. Jest to jednak problem natury fizycznej: odczytywanie pliku rozbitego na fragmenty znajdujące się w 50 lub 100 różnych miejscach na dyskietce trwa znacznie dłużej niż czytanie pliku zapisanego w jednym miejscu. W drugim przypadku łatwiejsze jest również odzyskiwanie danych utraconych w wyniku awarii. Dlatego dokonywana co jakiś czas defragmentacja dyskietki może znacznie ułatwić odzyskiwanie plików, jak również przyśpieszyć odczytywanie i zapisywanie plików znajdujących się w jednym bloku. Jak przeprowadzić defragmentację dyskietki? System DOS 6.0 lub nowszy wyposażony jest w polecenie o nazwie DEFRAG. Narzędzie to jest w istocie okrojoną wersją programu Speedisk pakietu Norton Utiiities. Nie ma on tak bardzo rozbudowanych opcji ani nie jest tak szybki jak wersja pełna, ale w większości przypadków radzi sobie całkiem dobrze. Wcześniejsze wersje DOS nie umożliwiają tak łatwej defragmentacji dyskietki, ale ten sam cel można osiągnąć archiwizując i odtwarzając pliki. Na przykład, aby zdefragmentować pliki znajdujące się na dyskietce, należy je skopiować na pustą dyskietkę, usunąć wszystkie pliki z oryginalnej dyskietki, po czym z powrotem skopiować je na tę dyskietkę. W przypadku dysku twardego należy utworzyć kopie zapasowe wszystkich plików, sformatować dysk i odtworzyć pliki. Opisana procedura jest jednak (delikatnie mówiąc) czasochłonna. System Windows 95 także wyposażono w narzędzie do defragmentacji dyskietek, które nie tylko pracuje w środowisku graficznym Windows, lecz również działa w tle, umożliwiając pracę innych aplikacji w tym samym czasie.
Ponieważ wersje DOS wcześniejsze niż 6.0 nie umożliwiają wygodnej defragmentacji dyskietki, wiele firm opracowało programy narzędziowe umożliwiające wykonanie tej operacji w sposób szybki i skuteczny. Programy te potrafią odtworzyć ciągłość pliku bez konieczności formatowania dysku i kopiowania plików. Osobistym faworytem autora książki, cechującym się bardzo łatwą obsługą oraz szybkim i bezpiecznym działaniem, jest narzędzie Vopt firmy Golden Bow Użytkownicy systemu Windows 95, obsługującego długie nazwy plików, powinni pamiętać, że wiele starszych programów tego typu skraca owe nazwy, co może być przyczyną wielu problemów. Aby sprawdzić, czy dany program współpracuje z dyskami sformatowanymi przez Windows 95, należy skontaktować się z producentem programu. Wiele programów będzie wymagało aktualizacji, żeby poprawnie pracować Przed uruchomieniem programu do defragmentacji wykonaj kopię bezpieczeństwa zawierającą wszystkie istotne dane. Dzięki temu unikniesz spustoszeń, jakie mogłyby powstać w wyniku np. zaniku napięcia w sieci elektrycznej, błędu w programie defragmentującym albo jego niezgodności z nowszymi wersjami systemu DOS lub Windows.
Cylindry Termin cylinder używany jest zwykle zamiennie z terminem ścieżka. Cylinder obejmuje wszystkie ścieżki znajdujące się w danej chwili pod głowicami odczytująco zapisującymi. Ze względu na to, że napęd ma najwyżej dwie głowice, a dyskietka - najwyżej (i zwykle) dwie strony, w skład jednego cylindra dyskietki wchodzą zwykle dwie ścieżki. Dyski twarde mają najczęściej kilka talerzy, z których każdy ma dwie strony i obsługiwany jest przez dwie głowice (lub więcej), co daje wiele ścieżek w jednym cylindrze
Klaster lub jednostka alokacji Klaster w systemie DOS 4.0 lub nowszym nazywany jest również jednostką alokacji. Terminów można używać zamiennie, gdyż pojedynczy klaster jest najmniejszą jednostką przestrzeni na dysku, którą DOS może przydzielić (alokować) zapisywanemu plikowi. Klaster lub jednostka alokacji składa się z jednego lub więcej (zwykle więcej) sektorów. Ujęcie więcej niż jednego sektora w klastrze (i zwiększenie tym samym rozmiaru klastra) powoduje zmniejszenie rozmiaru tablicy FAT i przyśpieszenie działania systemu DOS, ze względu na to, że musi on obsługiwać mniejszą liczbę jednostek alokacji, Kosztem takiego rozwiązania jest powiększenie nie wykorzystanych obszarów dyskietki. Ponieważ klaster jest najmniejszą jednostką przestrzeni na dysku, jaką DOS może zarządzać, każdy plik na dysku zajmuje obszar o rozmiarze będącym wielokrotnością rozmiaru klastra. W tabeli 13.4 podane są standardowe rozmiary klastrów, wykorzystywane przez system DOS do obsługi różnych formatów dyskietek. W rozdziale 14. „Napędy dysków twardych" opisane zostały rozmiary klastrów, czyli jednostek alokacji, stosowane w dyskach twardych Tabela 13.4. Standardowe rozmiary klastrów i jednostek alokacji
Pojemność w Liczba sektorów Rodzaj klastrze tablicy FAT jednostki 5,2 ';360 kB 5" 5,25"; MB 1,2 3,5 72 kB "; 3,5 01. MB "; 3,5 44 2. MB "; 88
2 l 2 l 2
sektory sektor sektory sektor sektory
l 024 bajty 512 bajtów 1 024 bajty 512 bajtów l 024 bajty
Rozmiar dyskietki
12 12 12 12 12
bitów bitów bitów bitów bitów
Dyskietki HD mają z reguły mniejsze klastry, co może wydawać się dziwne, gdy;mieszczą więcej sektorów niż dyskietki DD. Prawdopodobną przyczyną takiego stanu rzeczy jest to, że IBM i Microsoft uznały, iż zmniejszenie strat przestrzeni na dyskietce mimo wynikającego stąd niewielkiego obniżenia prędkości, zostanie przez użytkowników dobrze przyjęte. Wielkości klastrów na dysku twardym (co jest opisane w dalsze części książki) mogą się od siebie znacznie różnić, zależnie od wersji systemu DOS lub Windows oraz pojemności dysku twardego
Rodzaje napędów dyskietek Systemy zgodne z PC mogą korzystać z pięciu dostępnych standardowych napędów dyskietek. Napędy te najłatwiej określić podając parametry stosowanych w nich formatów (tabela 13.2 i 13.3). Większość napędów może formatować różne typy dyskietek. Na przykład 3,5-calowy napęd ED może formatować i wypełniać danymi dowolną dyskietkę 3,5". Podobnie, napęd HD 5,25" może formatować i zapisywać dowolną dyskietkę 5,25" (choć, jak wspomniano, mogą wystąpić pewne problemy związane z szerokością ścieżek). Napęd HD 5,25 potrafi nawet tworzyć dyskietki w starszych, nie używanych już formatach, np. jednostronnych lub z ośmioma sektorami na ścieżce. Z tabeli 13.5 wynika, że różne pojemności dyskietek wynikają z kombinacji kilku parametrów, z których część jest stała dla wszystkich napędów, a inne zmieniają się, zależnie od typu napędu. Na przykład, wszystkie napędy korzystają z 512-bajtowych sektorów, stosowanych również w dyskach twardych. Warto jednak zaznaczyć, że DOS traktuje wielkość sektora jako parametr zmienny, a B10S - nie. Proszę zauważyć, że wszystkie współczesne napędy dyskietek są dwustronne. IBM nie produkuje systemów z napędami jednostronnymi od roku 1982, zatem należy je uznać za przestarzałe. IBM również nigdy nie korzystał z jednostronnej odmiany napędu 3,5", choć stosowano go w 1984 roku w systemach Apple Macintosh. IBM oficjalnie rozpoczął sprzedaż napędów 3,5" w roku 1986 i stosował jedynie ich dwustronne odmiany
Napęd 5,25" DD (360 kB) Napęd 5,25" o niskiej gęstości zapisu został zaprojektowany do obsługi dyskietek o formacie standardowym, o pojemności 360 kB. Mimo że gęstość, z którą ów napęd pracuje, jest niska, to producenci uparcie określają ją mianem podwójnej gęstości. Uważam, że termin „podwójna gęstość" nie powinien być w ogóle stosowany, zwłaszcza ze względu na nieporozumienia, jakie wywołuje odnoszenie się doń w kontekście napędów o gęstości wysokiej. Termin „podwójna gęstość" powstał jako następstwo terminu „pojedyncza gęstość", opisującego napędy, w których do zapisywania wykorzystywano kodowanie FM (modulację częstotliwości), umożliwiającą zapisanie na dyskietce około 90 kB. Ten przestarzały typ napędu nigdy nie był wykorzystywany w komputerach PC, choć stosowanego w niektórych starszych systemach, np. w przenośnym komputerze Osborne-1. Równocześnie z rozpoczęciem kodowania MFM (zmodyfikowana modulacja częstotliwości) producenci wprowadzili termin „podwójna gęstość", wskazujący na niemal dwukrotnie większą pojemność dyskietek zapisywanych tą metodą. Wszystkie współczesne napędy, w tym wszystkie typy wymienione w niniejszym podrozdziale, wykorzystują kodowanie MFM. Różne metody kodowania sygnałów, w tym FM, MFM i RLL omówione są w rozdziale 14. „Napędy dysków twardych".
Tabela 13.5. Rodzaje formatów stosowanych na dyskietkach DOS Format global y aktu ne 3,5 3,5 5,25 5,2 5
Rozmiar dyskietki (w calach);
3,5
Pojemność dyskietki (kB); Bajt cleskryptora nośnika Strony (głowice) Ścieżek na stronę Sektorów na ścieżkę Bajtów na sektor Sektorów na klaster Rozmiar FAT (sektory); Liczba tablic FAT Rozmiar głównego katalogu (sektory); Maks. liczba wpisów w głównym Całkowita liczba na dyskietce Całkowita liczba dostępnych Całkowita liczba dostępnych klastrów
2880 1440
720 1200
FOh 2 80 36 512 2 9 2 15
FOh 2 80 18 512 1 9 2 14
F9h 2 80 9 512 2 3 2 7
240
224
Formaty przesta 5,25
5,25
360
320
180
F9h 2 80 15 512 1 7 2 14
FDh 2 40 9 512 2 2 2 7
FFh 2 40 8 512 2 1 2 7
FCh ! 40 9 512 1 2 2 4
112 224
112
112
64
5760 2880
1
2400
720
640
360
5726 2847
1
2371
708
630
351
2863 2847
713 2371
354
315
353
Dyskietka w napędzie 360 kB obraca się Z szybkością 300 obrotów na minutę, pięciu obrotów na sekundę, co oznacza, że l obrót trwa 200 ms. Wszystkie standardowe kontrolery obsługują przeplot sektorów l: l, co oznacza że sektory na ścieżce są (i odczytywane) kolejno. Aby możliwie najszybciej odczytywać i zapisywać info kontroler wysyła dane z szybkością 250 000 bitów na sekundę. Ponieważ wszystkie kontrolery obsługujące niską gęstość wysyłają dane z taką szybkością, praktycznie kontroler może obsłużyć omawiany typ napędu, o ile umożliwia to BIOS (skrót i Basie Input/Output System - podstawowy system wejścia/wyjścia) zapisany w p ROM (skrót od ang. Read Oniy Memory - pamięć tylko do odczytu). Ze względu na to, że BIOS, obsługujący nie tylko napędy dyskietek, we wszystkich standardowych systemach zgodnych z PC jest zapisany w pamięci ROM, do obsługi pędu zwykle nie są potrzebne żadne dodatkowe sterowniki, z wyjątkiem może nie „podróbek" napędów 360 kB przeznaczonych dla komputerów PS/2, które mogą wymagać dodatkowych sterowników. Wszystkie komputery oferowane mają natomiast wbudowaną pamięć ROM, umożliwiającą działanie napędów dyskietek Jedynym wymogiem poprawnego działania napędów jest więc odpowiednie skonfigurowanie komputera
Napęd 5,25" HD (1,2 MB) Napęd HD l ,2 MB po raz pierwszy zastosowano w komputerach IBM AT, wprowadzonych w sierpniu 1984 roku. Napęd ten do zapisania 1,2 MB danych na dyskietce wymagał użycia nowego typu dyskietki, umożliwiając jednocześnie odczyt i zapis (choć czasem było to zawodne) dyskietki o niskiej gęstości 360 kB. Napęd 1,2 MB w normalnym trybie pracy zapisuje 80 cylindrów po dwie ścieżki, poczynając od cylindra O przy zewnętrznej krawędzi dyskietki. Różnica między napędem HD (wysokiej gęstości) a napędem DD (niskiej gęstości) polega głównie na możliwości zapisania dwukrotnie większej liczby ścieżek na podobnej powierzchni dyskietki. Umożliwia to dwukrotne zwiększenie jej pojemności. Liczba ścieżek jest główną, ale nie jedyną różnicą. Na każdej ścieżce formatu HD (wysokiej gęstości) normalnie zapisywanych jest 15 sektorów o rozmiarze 512 bajtów każdy, co dodatkowo zwiększa pojemność dyskietki. W efekcie dyskietki HD 5,25" mogą przechowywać niemal czterokrotnie więcej informacji niż dyskietki DD 5,25" (1,2 MB zamiast 360 kB). Zwiększenie pojemności każdej ścieżki wymagało zastosowania dyskietek ze specjalnym nośnikiem, zaprojektowanym do pracy z takim sposobem zapisu. Ponieważ nowe dyskietki były początkowo dość drogie i trudne do zdobycia, wielu użytkowników próbowało zastąpić je dyskietkami o niskiej gęstości, formatując je na pojemność 1,2 MB, w wyniku czego tracili dane i przysparzali sobie dodatkowej pracy nad odzyskaniem informacji. Problemy braku zgodności w stosunku do napędów 360 kB wywodzą się ze zdolności napędu 1,2 MB do zapisywania dwukrotnie większej liczby cylindrów na tym samym obszarze, co napęd 360 kB. Napędy 1,2 MB ustawiają głowice nad tymi samymi 40 cylindrami, co napędy 360 kB, posługując się techniką podwójnych kroków, polegającą na przesuwaniu głowic co dwa cylindry, dzięki czemu podczas pracy z dyskietkami 360 kB zawsze znajdują się one w poprawnym położeniu. Przyczyną problemów jest to, że napęd 1,2 MB zapisuje 80 cylindrów na obszarze, na którym napęd 360 kB zapisuje 40 cylindrów, co oznacza, że głowice napędu 1,2 MB muszą być mniejsze. Węższe głowice mogą spowodować problemy podczas zapisu na dyskietkach używanych w napędach 360 kB (o szerszych głowicach), ponieważ nie mogą „przykryć" całej ścieżki zapisanej przez napęd 360 kB. Dyskietki w napędach l ,2 MB obracają się z szybkością 360 obrotów na minutę, czyli 6 obrotów na sekundę lub 166,67 milisekund na obrót. Szybkość ta jest stała, niezależnie od rodzaju (HD czy DD) dyskietki. Aby odczytać lub zapisać 15 sektorów (wraz z odpowiednimi informacjami dodatkowymi) 6 razy na sekundę, kontroler musi przesyłać dane z szybkością 500 000 bitów na sekundę (500 kHz). Wszystkie standardowe kontrolery uwzględniające niską i wysoką gęstość obsługują tę szybkość, a co za tym idzie, również omawiane napędy. Naturalnie, poprawna obsługa napędu zależy również od odpowiedniego BIOS-u. Gdy w napędzie znajduje się dyskietka 360 kB, obraca się ona również z prędkością 360 obrotów na minutę, lecz do jej poprawnej obsługi wymagana jest szybkość transmisji 300 000 bitów na sekundę (300 kHz). Standardowe kontrolery w komputerach AT wysyłają dane z częstotliwościami 250 kHz, 300 kHz i 500 kHz. Częstotliwość 300 kHz jest wykorzystywana jedynie podczas odczytywania lub zapisywania na dyskietkach 5,25" DD Właściwie wszystkie standardowe komputery AT w pamięci ROM mają system BIOS, który obsługuje napędy 1,2 MB, wykorzystując w tym celu częstotliwość 300 kHz
Napęd 3,5" DD (720 kB) 3,5-calowy napęd DD o pojemności 720 kB w komputerze PC po raz pierwszy pojawił wraz z laptopem IBM Convertible, wprowadzonym w roku 1986. Od tej pory wszystkie komputery IBM mają standardowo montowane napędy 3,5". Ten typ napędów jest również sprzedawany przez IBM jako wewnętrzny i zewnętrzny napęd do komputerów XT i AT. Poza rynkiem komputerów zgodnych z PC, inni producenci komputerów (Apple, Hewlett-Packard itd.) oferowali napędy 3,5" na długo przed ich pojawieniem się w świecie PC. Napędy 3,5" DD standardowo zapisują 80 cylindrów po dwie ścieżki, z których każda ma 9 sektorów, co w rezultacie daje pojemność 720 kB. Interesujące, że wielu producentów podaje, iż pojemność tych dyskietek wynosi 1,0 MB, co jest zgodne z prawdą. Różnica między rzeczywistą pojemnością 1,0 MB a możliwymi do wykorzystania po sformatowaniu 720 kB, jest zajmowana przez nagłówek i etykietę każdego z sektorów, przerwy między sektorami oraz przerwy indeksowe, znajdujące się na początku każdej ścieżki (przed pierwszym sektorem). Przestrzeń zajmowana przez powyższe obiekty nie nadaje się do przechowywania danych. Stąd różnica między pojemnością dyskietki przed i po sformatowaniu. Warto pamiętać, że w skład 720 kB wolnego miejsca wchodzą również obszary rezerwowane przez system DOS do zarządzania dyskiem (sektor startowy, tablice FAT, katalogi, itd.), przez co faktyczna pojemność dyskietki spada do 713 kB. W komputerach zgodnych z PC, napędy DD 720 kB wykorzystywane były głównie w komputerach klasy XT, ponieważ mogły być obsługiwane przez każdy kontroler obsługujący niską gęstość. Dyskietki w tym napędzie obracają się z szybkością 300 obrotów na minutę, więc do poprawnej pracy kontrolera wymagana jest jedynie częstotliwości 250 kHz. Jest to taka sama prędkość transmisji, jak w napędach 360 kB, co oznacza, że każdy kontroler obsługujący napęd 360 kB poradzi sobie również z napędem 720 kB. Jedynym problemem związanym z napędem 720 kB może być jego poprawna obsługa przez BIOS. System produkcji IBM z BIOS-em datowanym na 10.06.85 lub później może obsługiwać napęd 720 kB i nie potrzebuje do tego żadnych sterowników. W przypadku BIOS-u z datą wcześniejszą, do obsługi napędu 720 kB wymagane jest zastosowanie programu DRIYER.SYS z systemu DOS 3.2 lub późniejszego. W niektórych wersjach OEM systemu DOS należy również w pliku CONFIG.SYS określić parametr DRIVPARM. Oczywiście, można też zmienić BIOS na jego nowszą wersję, co zwalnia z konieczności instalowania różnych dziwnych sterowników i jest rozwiązaniem zalecanym - zwłaszcza przy instalowaniu omawianego napędu w starszym systemie
Napęd 3,5" HD (1,44 MB) 3,5-calowe napędy HD pojawiły się w komputerach IBM w roku 1987, kiedy to zastosowano je w serii PS/2. Choć IBM oficjalnie oferował ten typ napędu tylko w ramach nowego systemu, większość producentów komputerów kompatybilnych z IBM włączyła nowe urządzenie do oferty niemal natychmiast po premierze systemu PS/2.
Napęd HD zapisuje na dyskietce 80 cylindrów składających się z dwóch ścieżek, z których każda ma 18 sektorów, co daje pojemność po sformatowaniu równą 1,44 MB. Większość producentów podaje, że pojemność tych dyskietek wynosi 2,0 MB. Różnica jest tracona podczas formatowania. Należy pamiętać, że obszar 1,44 MB obejmuje także sektory potrzebne systemowi DOS do zarządzania plikami, po odliczeniu których na dane pozostaje 1423,5 kB wolnego miejsca. Dyskietki w napędach HD obracają się z szybkością 300 obrotów na minutę, która to prędkość umożliwia prawidłową pracę kontrolerów obsługujących zarówno niską, jak i wysoką gęstość. W celu korzystania z częstotliwości przesyłania 500 kHz, maksymalnej dla większości kontrolerów, napędy te stosują wyłącznie prędkość obrotową 300 obrotów na minutę. Gdyby dyskietki obracały się, podobnie jak w napędach 5,25", z prędkością 360 obrotów na minutę, liczba sektorów na ścieżce musiałaby ulec zmniejszeniu do 15 bądź też kontroler nie zdążyłby zapisać wszystkich sektorów. Krótko mówiąc, napędy 1,44 MB przechowują 1,2 razy więcej informacji od napędów 1,2 MB, które z kolei stosują szybkość obrotową dyskietki 1,2-krotnie większą niż w napędach 1,44 MB. Szybkości transmisji danych są identyczne w obu typach napędów i można je obsługiwać za pomocą tych samych kontrolerów. W rzeczywistości, ponieważ 3,5-calowe napędy HD mogą pracować przy prędkości transmisji 500 kHz, kontroler obsługujący napęd 5,25" o pojemności 1,2 MB równie dobrze współpracuje z napędem 1,44 MB. Po włożeniu do napędu 3,5" HD dyskietki o niskiej gęstości, szybkość przesyłania danych spada do 250 kHz, a pojemność dyskietki do 720 kB. Podstawowym problemem w systemie z napędem 1,44 MB jest zapewnienie obsługi napędu przez BIOS komputera. Systemy produkcji IBM z BIOS-em datowanym na 15.11.85 lub późniejsze maj ą wbudowaną obsługę napędów 1,44 MB, dzięki czemu nie ma potrzeby stosowania dodatkowych sterowników. Przydatny może się okazać program konfiguracyjny zwykłego komputera AT, gdyż program konfiguracyjny IBM-a nie umożliwia dołączenia opcjonalnego napędu 1,44 MB. Inny problem związany jest z kontrolerem i ze sposobem, w jaki sygnalizuje on zapisywanie danych na dyskietce o niskiej gęstości. Problem ten jest omówiony szczegółowo w następnym punkcie.
Napęd 3,5" ED (2,88 MB) Nowy napęd 2,88 MB został opracowany przez Toshiba Corporation w latach 80-tych, a po raz pierwszy oficjalnie zaprezentowany w roku 1987. W 1989 roku firma Toshiba rozpoczęła produkcję napędów i dyskietek, które wielu dostawców komputerowych zaczęło oferować jako rozszerzenia do nowszych systemów. IBM oficjalnie rozpoczął stosowanie napędu 2,88 MB w serii PS/2 z roku 1991.Od tamtej pory napęd 2,88 MB jest elementem standardowego wyposażenia właściwie każdego komputera PS/2. Ponieważ napęd ten może w pełni obsługiwać dyskietki 1,44 MB i 720 kB, został szybko zaakceptowany. Do obsługi nowego napędu wymagany jest system DOS 5.0 lub nowszy Napędy tego typu produkuje wiele firm, między innymi Toshiba, Mitsubishi, Sony i Panasonic. Niestety, z powodu wysokiej ceny nośnika napędy te nie przyjęły się, choć niemal wszystkie współczesne komputery potrafiące obsługiwać W napędach ED 2,88 MB wykorzystuje się technikę nazwaną „zapisem wgłębnym", która umożliwia osiągnięcie bardzo dużej gęstości liniowej 36 sektorów na ścieżce. W technice tej zwiększoną gęstość uzyskuje się przez namagnesowanie domen w kierunku prostopadłym do powierzchni nośnika. Stawiając domeny magnetyczne na ich końcach i upakowujące ściśle obok siebie, osiąga się znaczny wzrost gęstości zapisu.
Technologia produkcji głowic umożliwiających prostopadły lub inaczej wgłębny sposób zapisu była znana już od pewnego czasu. Nie można jej jednak było wykorzystać, dopóki nie został do tego sposobu zapisu dostosowany sam nośnik. Typowe nośniki mają cząstki magnetyczne w kształcie małych igieł leżących na powierzchni dyskietki. Ustawienie owych igiełek prostopadle do powierzchni dyskietki - co jest niezbędne w celu umożliwienia zapisu wgłębnego -jest jednak bardzo trudne. Udało się to dopiero po zmianie składu chemicznego nośnika. Cząstki na dyskietkach z żelazka baru mają kształt małych, płaskich, sześciokątnych płytek, które można ułożyć tak, aby ich osie magnetyczne ustawione były prostopadle do powierzchni zapisu. Choć żelazek baru jest materiałem często wykorzystywanym do produkcji magnesów stałych, nikomu wcześniej nie udało się zmniejszyć rozmiaru ziarna płytek na tyle, aby materiał nadawał się do zapisu z gęstością HD. Firma Toshiba udoskonaliła proces krystalizacji szkliwa, dzięki któremu uzyskano bardzo małe płytki, nadające się do powlekania dyskietek z żelazka baru. Wielu producentów dyskietek uzyskało licencję na tę, opatentowaną przez Toshibę, technologię i nadal wykorzystuje ją do produkcji tego typu napędów. W tym czasie Toshiba zmodyfikowała nieco konstrukcję standardowej głowicy napędu dyskietek, dzięki czemu może ona pracować zarówno z nowymi dyskami z żelazka baru, jak i ze standardowymi dyskami ferrytowymi oraz kobaltowymi. Technologia ta jest stosowana nie tylko w napędach dyskietek, lecz również w różnych urządzeniach zapisujących informacje na taśmie magnetycznej. Pojemność dyskietek wykorzystywanych w napędach ED określa się na 4 MB, co odnosi się do stanu przed sformatowaniem. Po sformatowaniu ich pojemność wynosi 2 880 kB lub 2,88 MB. Całkowita pojemność dyskietki, po uwzględnieniu miejsca traconego podczas formatowania, a także zajmowanego przez sektor startowy, tablice FAT i główny katalog dyskietki, czyli przestrzeń, którą można wykorzystać do przechowywania danych wynosi, 2 863 kB. W celu obsługi napędu 2,88 MB okazało się konieczne dostosowanie obwodów elektronicznych kontrolera dyskietki, gdyż przy zwykłej szybkości 300 obrotów na minutę zapisywane jest już nie 18 (jak w napędach HD), lecz 36 sektorów na ścieżce. Ponieważ we wszystkich formatach dyskietek stosuje się kolejną numerację sektorów (przeplot 1:1), owe 36 sektorów musi być zapisywane i odczytywane w tym samym czasie, w jakim napęd 1,44 MB zapisuje i odczytuje 18 sektorów. To z kolei wymaga, aby kontroler mógł obsługiwać znacznie wyższą częstotliwość przesyłu danych - wynoszącą l MHz. Większość starszych kontrolerów dyskietek montowanych na kartach lub płytach głównych komputerów może obsługiwać co najwyżej częstotliwość 500 kHz, wykorzystywaną w napędach HD. Dodanie do systemu napędu 2,88 MB wymaga więc zmiany kontrolera na zdolny do obsługi transmisji o częstotliwości l MHz Dodatkowym problemem związanym z obsługą napędu ED jest BIOS. Musi on mieć możliwość obsługi kontrolera i określenia napędu 2,88 MB jako jednego z ustawień CMOS. Nowsze BlOS-y płyt głównych, wyprodukowane przez takie firmy jak Phoenix, AMI czy Award, potrafią obsługiwać nowe kontrolery ED. Na wzór nowszych systemów IBM PS/2, większość nowych komputerów zgodnych z PC ma odpowiedni BIOS i wbudowane kontrolery, zdolne do obsługi napędów 2,88 MB. Instalowanie napędów ED w takich systemach polega jedynie na ich zamontowaniu w obudowie i odpowiednim ustawieniu parametrów BIOS-u. Instalowanie napędów ED w komputerach bez wspomnianych elementów jest znacznie trudniejsze. Wiele firm oferuje wobec tego nowe kontrolery wraz z odpowiednim BIOS-em i napędem 2,88 MB w formie zestawu specjalnie przygotowanego do montażu w starszych komputerach.
Choć same napędy 2,88 MB nie są wiele droższe od zastępowanych przez nie napędów 1,44 MB, ceny dyskietek nadal są bardzo wysokie. Choć nową dyskietkę HD można bez problemu kupić za cenę poniżej 2 zł, dyskietki 2,88 MB mogą kosztować ponad czterokrotnie więcej. Niestety za czterokrotnie wyższą cenę otrzymujemy pojemność zwiększoną jedynie dwukrotnie, co w żadnym wypadku nie stanowi rozwiązania problemu nieustannie rosnących rozmiarów plików użytkowych Rozwiązywanie problemów związanych z zapisem w napędach 3,5" HD (1,44 MB) Poważne problemy mogą napotkać użytkownicy korzystający z napędów 3,5" 1,44 MB: jeśli napęd nie został prawidłowo zainstalowany, każda operacja formatowania lub zapisu informacji na dyskietce 720 kB może skończyć się uszkodzeniem danych na dyskietce. Przyczyną tego problemu jest niemożność poinstruowania napędu przez kontroler o wymogu zapisu danych z niską gęstością. Dyskietki HD wymagają większych prądów zapisu (większej siły sygnału) niż dyskietki DD. Napęd o niskiej gęstości zapisuje wyłącznie za pomocą prądów słabszych, co jest poprawne w przypadku dyskietek DD; jednakże napęd HD może zapisywać przy użyciu zarówno słabych, jak i silnych prądów, zależnie od rodzaju dyskietki znajdującej się w napędzie. Jeśli do napędu nie zostanie wysłany odpowiedni sygnał nakazujący obniżenie prądów zapisu, napęd pozostaje w standardowym trybie o wysokich prądach, nawet podczas pracy z dyskietką DD. Normalnie, sygnał ten powinien być wysyłany przez kontroler, lecz wiele kontrolerów nie wysyła go we właściwy sposób. Kontroler firmy Western Digital, wykorzystywany przez IBM, wysyła sygnał powodujący obniżenie prądu zapisu (sygnał RWC) jedynie wtedy, gdy kontroler przesyła dane z częstotliwością 300 kHz, co dzieje się w przypadku włożenia dyskietki DD do napędu HD. Bez otrzymania sygnału RWC napęd HD nie osłabi sygnału zapisywanego przez głowice do poziomu odpowiedniego dla dyskietek o niskiej gęstości (DD). W takiej sytuacji napęd stosuje sygnały silniejsze, odpowiednie jedynie dla dyskietek HD. Jeśli natomiast kontroler przesyła dane z częstotliwością 250 kHz, to „wie", że ma do czynienia z napędem o niskiej gęstości zapisu, a zatem nie ma potrzeby wysyłania sygnału RWC, gdyż napędy o niskiej gęstości stosują do zapisu wyłącznie prądy o słabszym natężeniu Opisane zachowanie stanowi problem dla posiadaczy napędów 1,44 MB, wykorzystujących dyskietki 720 kB, ponieważ ten typ dyskietek obraca się z szybkością 300 obrotów na minutę, co przy zapisywaniu w niskiej gęstości odpowiada częstotliwości transmisji równej nie 300 kHz, lecz 250 kHz. Taka kombinacja parametrów wprowadza w błąd kontroler, który zachowuje się tak, jakby obsługiwał napęd o niskiej gęstości, do którego nie trzeba wysyłać sygnału RWC. Bez tego sygnału napęd ustawia nieprawidłowe warunki zapisywania, co może uszkodzić zapisywane informacje oraz te, które już znajdują się na dyskietce. Ponieważ niemal wszystkie komputery zgodne z PC mają kontroler oparty na kontrolerze stosowanym w IBM AT, w nich również może występować omawiany problem. Producenci napędów i dyskietek opracowali idealne rozwiązanie tego problemu, bez konieczności stosowania przeprojektowanego kontrolera. Wbudowali oni do napędu czujnik rodzaju nośnika, który po włączeniu może zastąpić sygnał RWC (lub jego brak), w ten sposób umożliwiając poprawne ustawienie poziomów prądu na głowicach. Istotą tego rozwiązania jest wybieranie poziomów zapisu niezależnie od kontrolera napędu, co jest możliwe, o ile czujnik rodzaju nośnika jest włączony
Czujnik ten jest małym urządzeniem optycznym lub mechanicznym, zaprojektowanym do wykrywania obecności otworu umieszczonego na dyskietce po stronie przeciwnej w stosunku do otworu ochrony przed zapisem. Ów dodatkowy otwór w dyskietce HD lub ED służy napędowi za wskazówkę dotyczącą ustawienia prądu zapisu. Jeśli wykryta została dyskietka ED, napęd ED uaktywnia głowice do zapisu wgłębnego; jeśli napęd nie wykryje odpowiedniego otworu w dyskietce, będzie zapisywał posługując się poprawnym, obniżonym prądem, dostosowanym do dyskietek DD. Niektóre osoby zmieniają zachowanie napędu, wykonując dodatkowe otwory w obudowie dyskietki DD, przez co napęd zachowuje się tak, jak po włożeniu dyskietki HD. Kilka pozbawionych skrupułów firm zarobiło „szybkie pieniądze" sprzedając urządzenia do wykonywania takich otworów w dyskietkach. Firmy te wprowadzały w błąd klientów, próbując przekonać ich, że jedyną różnicą między dyskietkami HD i DD jest obecność owego otworu oraz że wystarczy go samodzielnie wykonać, aby z dyskietki DD uzyskać pełnowartościową dyskietkę HD. Jest to oczywiście zupełna nieprawda:dyskietki HD różnią się od dyskietek DD nie tylko obecnością dodatkowego otworu u tych pierwszych. Różnice między rodzajami dyskietek omówione są w punkcie „Rodzaje dyskietek i ich parametry", w dalszej części tego rozdziału. Wiele systemów, w tym seria komputerów IBM PS/2, nie wymaga napędów z czujnikiem nośnika. Ich kontrolery zostały poprawione tak, aby wysyłały do napędu sygnał RWC nawet wtedy, gdy stosowana jest częstotliwość transmisji 250 kHz. Konfiguracja ta pozwala na poprawne działanie, niezależnie od stosowanego typu napędu oraz dyskietki, tak długo jak użytkownik wybiera prawidłowe formaty. Ponieważ napędy nie mają czujników pilnujących użytkowników, łatwo mogą oni sformatować dyskietki o niskiej gęstości na format HD, bez względu na obecność otworów identyfikujących dyskietkę. Było to przyczyną problemów w starszych komputerach PS/2, gdzie zdarzało się przypadkowe sformatowanie dyskietek 720 kB jako dyskietek 1,44 MB. Dyskietki takie w systemach z aktywnym czujnikiem rodzaju nośnika w ogóle nie mogą być odczytane, ponieważ są one nieprawidłowo sformatowane. W przypadku problemów z wymianą danych należy upewnić się, czy dyskietki zostały prawidłowo sformatowane Nowsze systemy PS/2 i komputery bardziej znanych producentów (np. HewlettPackard) wykorzystują aktywny czujnik nośnika, dzięki czemu użytkownik nie musi uważać na parametry polecenia FORMAT przy formatowaniu dyskietki. We wspomnianych systemach informacje z czujnika nośnika przekazywane są do sterownika i dalej do BIOS-u, informującego polecenie FORMAT o typie dyskietki znajdującej się w napędzie. W systemach takich przypadkowe sformatowanie dyskietki na niewłaściwą pojemność jest niemożliwe, a jakakolwiek znajomość różnych typów nośników – zbędna
Konstrukcja dyskietki Dyskietki 5,25" i 3,5" różnią się konstrukcją oraz właściwościami fizycznymi. Elastyczny (miękki) dysk zamknięty jest w plastikowym opakowaniu. Dyskietki 3,5" mają sztywniejszą od dyskietek 5,25" obudowę, natomiast dyski umieszczone w jej środku są niemal identyczne, rzecz jasna poza rozmiarem .Między dyskietkami o różnej wielkości można znaleźć wiele różnic i podobieństw. Niniejszy podrozdział poświęcony jest fizycznym właściwościom i konstrukcji obu tych typów dyskietek.Patrząc na dyskietkę 5,25", można dostrzec szereg elementów (rys. 13.10). Najbardziej widoczny jest duży otwór w środku dyskietki. Dzięki niemu, po włożeniu dyskietki do napędu i zamknięciu dźwigni blokującej, stożkowy uchwyt utrzymuje dysk w centralnym położeniu. W wielu dyskietkach montowane są pierścienie wzmacniające - cienkie, plastikowe krążki, podobne do stosowanych w celu wzmocnienia papieru do segregatora, mające uchronić dyskietkę przed uszkodzeniami wywołanymi przez mechanizm uchwytu. W dyskietkach HD z reguły brakuje tych wzmocnień, gdyż ich obecność może powodować trudności w precyzyjnym ustawieniu dyskietki i tym samym problemy z ustawieniem głowic
Rysunek 13.10. Budowa dyskietki 5,25"
Po prawej stronie, tuż pod środkowym otworem, umieszczony jest otwór mniejszy, zwany indeksowym. Przy ostrożnym obracaniu dyskietki wewnątrz obudowy można zobaczyć w niej mały otwór. Napęd wykorzystuje ów otwór indeksowy do określenia początku ścieżki - jest to rodzaj „południka zerowego" dla sektorów początkowych. Dyskietka z jednym otworem indeksowym jest dyskietką sektorowaną programowo; Oprogramowanie komputera (system operacyjny) decyduje o stosowanej liczbie sektorów na dyskietce. Niektóre starsze narzędzia, np. procesory tekstu Wang. wykorzystują dyskietki sektorowane sprzętowo, w których o położeniu każdego sektora decyduje osobny otwór indeksowy. Dyskietek takich nie należy stosować w komputerach PC. Poniżej otworu uchwytu dyskietki znajduje się drugi - podłużny - otwór, przez który widać powierzchnię dyskietki. Właśnie przez ten otwór głowica ma dostęp do nośnika, na którym zapisuje i z którego czyta dane. Po prawej stronie, około 2,5 cm od jej górnej krawędzi, znajduje się prostokątne wycięcie w obudowie dyskietki. Obecność tego wycięcia oznacza, że możliwe jest zapisywanie na dyskietce. Dyskietki bez owego otworu (lub z otworem zasłoniętym taśmą klejącą) są zabezpieczone przed zapisem. Niektóre dyskietki mogą w ogóle nie mieć tego wycięcia, zwłaszcza te, na których znajdują się sprzedawane programy. W tylnej części dyskietki, u jej dołu, znajdują się dwa bardzo małe, owalne wycięcia, otaczające otwór dostępu głowic do nośnika. Otworki te zmniejszają naprężenia dyskietki i chronią ją przed zniszczeniem. Może też je wykorzystać napęd do właściwego ułożenia dyskietki. Gęstość upakowania ścieżek i zapisu danych na dyskietkach 3,5" jest większa od spotykanej w napędach 5,25", dzięki temu, że dużo sztywniejsza obudowa (rys. 13.11) zapewnia dyskowi większą stabilność, która umożliwia zwiększenie precyzji i zmniejszenie szerokości ścieżki. Metalowa osłona chroni otwór dostępu do nośnika. Osłona jest otwierana tylko wewnątrz napędu, natomiast pozostaje zamknięta poza nim
Ponieważ do prawidłowej pracy dyskietki osłona nie jest konieczna, można ją zdjąć z plastikowej obudowy, jeśli ulegnie uszkodzeniu lub wygięciu. W tym celu wystarczy ją podważyć. Sprężyna dociskająca osłonę również powinna zostać wyjęta. Po usunięciu uszkodzonej osłony, warto skopiować dane z takiej dyskietki na inną - w pełni sprawną. Zamiast otworu indeksowego, w dyskietkach 3,5" wykorzystuje się metalową piastę z otworem orientacyjnym. Napęd „chwyta" piastę, a otwór umożliwia prawidłowe pozycjonowanie dyskietki. W lewej dolnej części dyskietki znajduje się otwór z plastikowym suwakiem, zwany otworem ochrony przed zapisem (rys. 13.11). Gdy otwór ten nie jest zasłonięty suwakiem, dyskietka jest chroniona przed zapisem; napęd nie może zapisywać danych. Gdy suwak przykrywa otwór, ochrona jest wyłączona, dzięki czemu napęd może zapisywać dane. Aby zapewnić lepszą ochronę, niektóre programy są sprzedawane na dyskietkach bez wspomnianego suwaka, co dodatkowo utrudnia ich przypadkowe zapisanie. Sytuacja ta jest odwrotna niż w przypadku dyskietek 5,25", gdzie zasłonięcie otworu oznacza ochronę przed zapisem. Po stronie przeciwnej do otworu ochrony przed zapisem może znajdować się kolejny otwór, zwany otworem wyboru gęstości nośnika. Jeśli obudowa dyskietki ma ten otwór, to dysk jest wykonany ze specjalnego nośnika, czyli jest dyskiem typu HD lub ED. Jeśli otwór znajduje się na tej samej wysokości, co otwór ochrony przed zapisem, mamy do czynienia z dyskietką HD 1,44 MB. W dyskach ED otwór ten jest przesunięty nieco w górę (w kierunku osłony dyskietki). Brak jakiegokolwiek otworu oznacza, że dyskietka jest nośnikiem o niskiej gęstości (DD). Większość napędów ma czujniki rodzaju nośnika, sterujące trybem zapisu na dyskietce, zależnie od obecności lub braku owych otworów. Zarówno dyskietki 3,5", jaki i 5,25" zbudowane są z tych samych materiałów bazowych. Dyskietki wykonane są z tworzywa sztucznego (najczęściej z mylaru), pokrytego warstwą magnetyczną. Materiałem magnetycznym jest z reguły związek oparty na tlenkach żelaza w przypadku dyskietek DD, na związkach żelazowo-kobaltowych w przypadku dyskietek H D lub związkach żelazowo-barowych - w dyskietkach ED. Twarda obudowa dyskietki 3,5" może wprowadzić niektóre osoby w mylne przekonanie, że mają do czynienia z jakąś odmianą dysku twardego, a nie elastycznego. „Wnętrze" dyskietki 3,5" jest jednak równie elastyczne, jak każdej dyskietki 5,25".
Rodzaje dyskietek i ich parametry W niniejszym punkcie zostały opisane wszystkie możliwe do kupienia typy dyskietek. Szczególnie interesujące są techniczne parametry różniące poszczególne typy dyskietek, przedstawione w tabeli 13.6. Zdefiniowano tu również wszystkie parametry wykorzystywane do opisu typowej dyskietki
Gęstość Tabela 13.6. Parametry dyskietek Dyskietka
3,5" cala
Dysk
5,25 cala
cala Bardzo wysoka gęstość (ED) 135
Parametry nośnika
Podwójna Poczwórna gęstość (DD) gęstość (QD)
Wysoka gęstość (HD)
Podwójna gęstość (DD)
Wysoka gęstość (HD)
Ścieżek na cal Bitów na cal Podst. .związek nośnika Koercja (erstedy) Grubość Polaryzacja zapisu
48 5876 Żelazo
96 5876 Żelazo
96 9646 Kobalt
135 8717 Kobalt
135 17434 Kobalt
300 100 pozioma
300 100 pozioma
600 50 pozioma
600 70 pozioma
720 40 pozioma
34868 Bar 750 100 pionowa
Przy określaniu parametrów dyskietek stosuje się dwa pojęcia: gęstość poprzeczną i gęstość liniową. Gęstość poprzeczna wskazuje na liczbę ścieżek możliwych do zapisania na powierzchni nośnika; często wyrażana jest liczbą ścieżek na cal (TPI). Gęstość liniowa natomiast określa zdolność określonej ścieżki do przechowywania informacji; wyraża się ją w bitach na cal (BPI). Niestety, oba rodzaje gęstości bywają używane zamiennie przy omawianiu różnych napędów i dyskietek, co jest powodem wielu nieporozumień. W tabeli 13.6 podano szczegółowe parametry każdego dostępnego rodzaju dyskietki. IBM nigdy nie stosował dyskietek o poczwórnej gęstości - żaden system IBM nie wykorzystuje ani nie wymaga takich dyskietek. Dyskietek takich nie warto kupować, chyba że chce się mieć dyskietki DD o lepszej jakości Dyskietki DD mają taką samą gęstość liniową jak dyskietki QD. Również rodzaj nośnika jest taki sam, lecz dyskietki QD przechodzą bardziej rygorystyczne testy, co stanowi o ich wyższej jakości. Natomiast dyskietki HD są już zupełnie inne. W celu zwiększenia gęstości liniowej zastosowano w nich całkowicie odmienny typ powłoki magnetycznej.W dyskietkach HD 5,25 oraz 3,5" wykorzystano pokrycie o wysokiej koercji, umożliwiające osiągnięcie dużej gęstości liniowej. Dysku HD nie można zastąpić dyskiem DD czy QD, gdyż różne są prądy zapisu dostosowane do innej grubości i składu nośnika. Wymieniony w tabeli 3,5-calowy dysk ED jest nowym typem dyskietek. Został wynaleziony przez Toshibę, a obecnie jest również produkowany przez inne firmy. W dyskach ED stosowana jest technika zapisu wgłębnego. W technice tej domeny nie są układane poziomo, lecz pionowo. Wyższa gęstość wynika z możliwości znacznie ściślejszego upakowania domen. Ten typ napędu może pracować również z pozostałymi typami dyskietek 3,5", gdyż wszystkie mają takie same rozmiary ścieżek
Koercja i grubość nośnika Koercja nośnika, mierzona w erstedach, określa natężenie pola magnetycznego, które jest wymagane do poprawnego zapisania danych na dysku. Dysk o wyższym wskaźniku koercji wymaga przy zapisie informacji silniejszego pola magnetycznego. Przy niższym wskaźniku dysk może być zapisany słabszym polem magnetycznym. Innymi słowy, im mniejszy wskaźnik koercji, tym czulszy nośnik dyskietki. Nośnik HD wymaga wyższych wartości koercji, dzięki czemu sąsiadujące domeny magnetyczne nie będą się wzajemnie zakłócały. Z tego właśnie powodu nośnik HD jest mniej czuły i wymaga większej mocy sygnału zapisującego. Kolejną charakterystyką dyskietki jest grubość warstwy nośnika. Im jest ona cieńsza, tym mniejszy wpływ ma dany obszar dyskietki na obszary sąsiednie. Dlatego dyskietki o cieńszej warstwie nośnika mogą przechowywać więcej bitów na cal, nie obniżając przy tym jakości zapisu
Formatowanie dyskietek Podstawową zasadą obowiązującą we wszystkich napędach (poza napędami 2,88 MB) jest formatowanie dyskietek w najwyższej dostępnej gęstości, o ile napęd nie zostanie ustawiony inaczej za pomocą odpowiednich parametrów polecenia FORMAT. Dlatego po włożeniu dyskietki 1,44 MB HD do napędu (A:) 1,44 MB HD, można tę dyskietkę sformatować podając zwyczajnie polecenie FORMAT A: - nie ma potrzeby dopisywania żadnych parametrów. Po włożeniu innego typu dyskietki (na przykład DD), konieczne staje się podanie odpowiednich parametrów polecenia FORMAT, zmieniających tryb formatowania z domyślnego 1,44 MB na odpowiedni dla danej dyskietki. Nawet jeśli napęd wyposażony jest w czujnik rodzaju nośnika, umożliwiający rozpoznanie dyskietki w napędzie, w większości przypadków stan tego czujnika nie jest przesyłany do kontrolera ani do DOS-u, w związku z czym rodzaj dyskietki pozostaje nieznany. Wyjątkiem od tej reguły są napędy 2,88 MB, obsługujące aktywne rozpoznawanie nośnika. Większość napędów tego typu obsługuje tę zaawansowaną funkcję, polegającą na przesyłaniu informacji o typie nośnika do kontrolera i do systemu DOS. W tej sytuacji nie ma potrzeby podawania żadnych parametrów formatowania, niezależnie od typu znajdującej się w napędzie dyskietki. Polecenie FORMAT automatycznie przełączy się w odpowiedni tryb pracy, wskazywany przez aktywne czujniki w napędzie 2,88 MB. Aktywne wykrywanie nośnika obsługują również niektóre napędy 1,44 MB (na przykład w systemach firmy HewlettPackard), lecz należy to do rzadkości. W większości napędów 1,44 MB czujnik nośnika w napędzie jest pasywny, przez co jedyną jego funkcją jest wywoływanie błędu polecenia FORMAT, któremu nie podano odpowiednich parametrów. W tabeli 13.7 przedstawione są poprawne polecenia formatowania dla wszystkich możliwych kombinacji napędu i dyskietki. Podano również, które wersje systemu DOS obsługują różne kombinacje napędów, dyskietek i parametrów polecenia FORMAT. Aby skorzystać z tabeli, wystarczy znaleźć pozycję odpowiadającą używanym elementom: napędowi i dyskietce. Można z niej odczytać odpowiednie parametry polecenia FORMAT, podobnie jak wersję systemu DOS obsługującą tę kombinację
Tabela 13.7
Typ 5,25' 5,25" 5,25" 5,25" 5,25" 3,5" 3.5" 3,5" 3,5" 3,5" 3,5" 3,5"
"36( 1.2 1.2 1.2 1.2 720 1,44 1,44 1,44 2,88 2,88 2,88
».7. Po/ idu
Typ
Form zatowoi nie dyskietk Poprawne p atdys. kiełki dyski i DOS Wer:
)kB MB MB MB MB kB MB MB MB MB MB MB
DD HD DD DD DD DD HD DD DD ED 2,88 HD DD
360 l,2 MB 360 360 360 720 1,44 720 720 1,44 720
kB kB kB kB kB kB MB kB kB MB MB kB
DOS DOS DOS DOS DOS DOS DOS DOS DOS DOS DOS DOS
2.0+ 3.0+ 3.0+ 3.2+ 4.0+ 3.2+ 3.3+ 3.3+ 4.0+ 5.0+ 5.0+ 5.0+
FORMAT d: FORMAT d: FORMAT d: FORMAT d: FORMAT d: FORMAT d: FORMAT d: FORMAT d: FORMAT d: FORMAT d: FORMAT d: FORMAT d:
polecenie formatowania
/4 /N:9 T:40 /F:360
/N:9/T:80 /F:720 /F: l.44 /F:720
+ również wszystkie nowsze wersje d: określa napęd wykorzystywany do formatowania DD podwójna gęstość HD wysoka gęstość ED
ekstra wysoka gęstość
Jeśli zainstalowany napęd obsługuje aktywne (inteligentne) wykrywanie nośnika, podawanie dodatkowych parametrów nie jest konieczne. Napęd automatycznie przekaże informację o typie dyskietki znajdującej się w napędzie do programu realizującego formatowanie. Jest to normalna sytuacja w przypadku większości napędów 2,88 MB. Obsługa napędów i dyskietek Większość użytkowników komputerów zna podstawowe zasady obchodzenia się z dyskami. Dyskietki można łatwo uszkodzić lub zniszczyć przez wykonywanie następujących czynności: • dotykanie powierzchni nośnika palcem lub czymkolwiek innym; • opisywanie dyskietki za pomocą długopisu lub ołówka; • wyginanie dyskietki; • wylanie na dyskietkę kawy lub innej cieczy; • przegrzanie dyskietki (na przykład pozostawienie jej w silnie nasłonecznionym miejscu lub w pobliżu grzejnika); • wystawianie dyskietki na działanie silnych pól magnetycznych
Mimo wszystkich powyższych uwag, dyskietki są raczej odpornymi nośnikami informacji; autorowi książki nie zdarzyło się jeszcze uszkodzić dyskietki przez pisanie po niej długopisem, choć robi to bardzo często. Wystarczy tylko ograniczyć siłę nacisku, zapobiegając powstawaniu wgnieceń na dyskietce. Również dotykanie powierzchni dyskietki nie spowoduje jej zniszczenia, lecz raczej zabrudzenie, i to zarówno dyskietki, jak i głowic, tłuszczem oraz kurzem. Zagrożenie ze strony pola magnetycznego pochodzi przede wszystkim stąd, że będąc niewidzialnym, może być obecne w zupełnie nieoczekiwanych miejscach. Na przykład wszystkie kolorowe monitory (także telewizory) mają wokół kineskopu obwód rozmagnesowujący maskę kineskopu, włączany na początku pracy monitora. Obwód ten jest podłączony do źródła prądu zmiennego i sterowany za pomocą termistora, przepuszczającego gigantyczny prąd w momencie włączenia, a następnie ograniczającego ów prąd w miarę rozgrzewania się kineskopu. Opisywany obwód jest tak zaprojektowany, aby usuwał statyczne pola magnetyczne z maski w przedniej części kineskopu. Namagnesowanie maski może spowodować odchylanie strumieni elektronów, w wyniku czego wyświetlany obraz mógłby mieć dziwne kolory lub stracić ostrość. Jeśli dyskietka jest przechowywana w pobliżu przedniej części kineskopu (do 30 cm), przy każdym włączeniu monitora jest ona wystawiona na działanie silnego pola magnetycznego. Trzymanie dyskietek w takim miejscu nie jest najlepszym pomysłem, ponieważ wspomniane pole potrafi rozmagnesować różne przedmioty, a zwłaszcza dyskietki. Efekt działania pola kumuluje się i nie można go odwrócić. Innym znanym niszczycielem dyskietek jest aparat telefoniczny. Elektromechaniczny dzwonek w typowym telefonie ma silny elektromagnes przesuwający młoteczek dzwonka. Obwód dzwonka pracuje przy napięciu ok. 90 V, a wywoływane w nim pole magnetyczne wystarcza do skasowania dyskietki leżącej na biurku obok telefonu lub pod nim. Dyskietki należy więc trzymać z dala od telefonów. Telefon z elektronicznym odpowiednikiem dzwonka może nie wywoływać opisanego typu uszkodzenia, lecz telefony przenośne często zawierają magnesy, więc i tak trzeba uważać. Kolejnym źródłem silnych pól magnetycznych jest silnik elektryczny, taki jak w odkurzaczu, grzejniku, wentylatorze, elektrycznej ostrzałce do ołówków i innych podobnych urządzeniach. Urządzeń tych nie należy stawiać w pobliżu miejsc, w których przechowywane są dyskietki
Lotniskowe aparaty rentgenowskie i wykrywacze metali Ludzie często mitologizują rzeczy, których nie widzą, a z pewnością nie można zobaczyć ani danych zapisanych na dyskietce, ani pól magnetycznych zmieniających informację. Jednym z takich mitów jest przekonanie, że aparat rentgenowski może w jakiś sposób uszkodzić dyski. Autor ma ogromne doświadczenie w tej dziedzinie, gdyż w ciągu ostatnich 10 lat często podróżował po świecie, wożąc ze sobą dyskietki i komputery przenośne. Przelatując rocznie ponad 200 000 kilometrów, wystawiał te przedmioty na działanie promieni rentgenowskich ponad 100 razy
Największe kłopoty osób podchodzących z komputerami lub dyskietkami do aparatów rentgenowskich na lotnisku wywodzą się stąd, że próbują one ominąć kontrolę! Mówiąc serio, promienie rentgena są w istocie swego rodzaju światłem, którego natężenie w aparatach lotniskowych jest na tyle słabe, że w żaden sposób nie może wpłynąć ani na komputery, ani na dyskietki. Natomiast urządzeniem, które może uszkodzić nośnik magnetyczny, jest wykrywacz metali. Bez przerwy powtarza się sytuacja, kiedy to pasażer z dyskietkami lub przenośnym komputerem podchodzi do punktu kontroli, nagle zatrzymuje się i mówi „Ojej! mam dyskietki i komputer, które trzeba skontrolować ręcznie". Osoba ta nie wkłada bagażu do aparatu rentgenowskiego, tylko przechodzi z nim przez wykrywacz metali bądź też podaje go pracownikowi ochrony stojącemu zwykle tuż obok takiego wykrywacza. Działanie wykrywaczy metali polega na badaniu zakłóceń słabego pola magnetycznego. Metalowy przedmiot umieszczony w polu magnetycznym powoduje zmianę kształtu tego pola, co jest obserwowane przez wykrywacz. Zjawisko fizyczne wykorzystywane w wykrywaczach metali może stanowić zagrożenie dla dyskietek; zatem aparat rentgenowski jest urządzeniem najbezpieczniejszym dla dyskietek i komputerów. Aparat rentgenowski nie jest groźny dla dyskietek, gdyż emituje bardzo słabe pole elektromagnetyczne o określonej (bardzo wysokiej) częstotliwości. Innym przykładem takiego pola (tyle że o innej częstotliwości) może być niebieskie światło. Jedyną cechą różniącą je od promieni rentgenowskich jest częstotliwość (długość fali) emisji. Niektóre osoby martwią się wpływem promieni rentgenowskich na znajdującą się w komputerze pamięć EPROM. Obawy te są bardziej uzasadnione od obaw dotyczących dyskietek, ponieważ pamięć tę można kasować pewną formą promieniowania elektromagnetycznego. Jednak w rzeczywistości nie ma powodu do zmartwień. Pamięć EPROM można skasować, wystawiając ją na bardzo silne światło ultrafioletowe. Do usuwania szczególnie dobrze nadaje się źródło światła o natężeniu 12,000 uW/cm2 i długości fali 2.537 angstremów, działające przez 15 do 20 minut z odległości 2,5 centymetra. Zwiększenie natężenia światła lub zmniejszenie odległości może ten czas skrócić najwyżej do kilku minut. Długość fali emitowanej przez lotniskowe aparaty rentgenowskie różni się od tego światła 10 000-krotnie, a natężenie pola, czas trwania i odległość od źródła promieniowania nie są nawet w przybliżeniu wystarczające do skasowania pamięci EPROM. Warto przy tym zaznaczyć, że wielu producentów urządzeń elektronicznych stosuje w produkcji promieniowanie rentgenowskie do testowania jakości płytek drukowanych (z zainstalowanymi elementami, w tym również pamięciami EPROM). Z doświadczeń autora można podać przykład dyskietki, która w ciągu dwóch lat przechodziła przez różne aparaty rentgenowskie średnio po dwa, trzy razy tygodniowo. Dyskietka ta wciąż jest sprawna, zawiera oryginalne pliki z danymi i nigdy nie była powtórnie formatowana. Podobnie rzecz się ma z dyskami twardymi w komputerach przenośnych; jeden z takich komputerów był co tydzień prześwietlany promieniami rentgenowskimi przez ponad cztery lata. Prawdę mówiąc, aparaty rentgenowskie chronią nośniki magnetyczne, gdyż dają one najskuteczniejsze ekranowanie przed stojącymi obok wykrywaczami metali. W ten sposób można nawet uniknąć problemów z pracownikami ochrony, ponieważ po prześwietleniu bagażu zwykle nie trzeba go otwierać i włączać komputera. Niestety, przy dzisiejszych obostrzeniach ochrony, większość linii lotniczych wymaga, aby mimo prześwietlenia pokazać komputer i jeszcze go włączyć.
Czytelnik może nie uwierzyć autorowi na słowo, ale istnieje publikacja naukowa, potwierdzająca podane tu informacje. Jej autorami są naukowcy, z których jeden projektuje lampy rentgenowskie dla znanego ich producenta. Swoją pracę, zatytułowaną „Airport Xrays and floppy disks: no cause for concern" („Lotniskowe aparaty rentgenowskie i dyskietki brak powodu do zmartwień") opublikowali w 1993 roku na łamach wydawnictwa Computer Methods and Programs in Biomedicine (Metody i programy komputerowe w biomedycynie). A oto streszczenie tej publikacji: Przeprowadzone zostało badanie dotyczące potencjalnego wpływu promieni X (promieniowania rentgenowskiego) na bezpieczeństwo danych przechowywanych na zwykłych dyskietkach. Badane dyskietki wystawiono na promieniowanie do siedmiu razy silniejsze od stosowanego podczas sprawdzania bagażu. Czytelność niemal 14 megabajtów danych przechowywanych na badanych dyskietkach nie uległa zmianie w wyniku napromieniowania, co wskazuje, że specjalne traktowanie dyskietek podczas kontroli bagażu nie jest konieczne. Wspomnieć warto, że zawartość tych dyskietek została ponownie zbadana po dwóch latach przechowywania i mimo upływu czasu nie zanotowano mierzalnej utraty informacji. Ostatnio zaczęły krążyć pogłoski, że choć samo promieniowanie nie wywołuje uszkodzeń dyskietki, pole magnetyczne wywoływane przez silniki taśmociągu może uszkodzić dyskietki. Jednak doświadczenia autora książki tego nie potwierdzają
Instalowanie napędu Instalowanie napędu dyskietek jest czynnością stosunkowo prostą. Instalacja napędu przebiega w dwóch fazach: pierwsza polega na skonfigurowaniu napędu do instalacji, druga na zainstalowaniu napędu w komputerze. Zwykle pierwsza z tych operacji jest trudniejsza do wykonania, a stopień jej trudności zależy (odwrotnie proporcjonalnie) od znajomości interfejsu dyskietek i dostępu do dokumentacji napędu. W trakcie instalowania napędu w komputerze należy go umocować w obudowie systemu, a następnie podłączyć do niego zasilanie oraz kabel przesyłu danych. W celu zainstalowania napędu zwykle potrzebne są odpowiednie śruby i wsporniki. Najczęściej są one dołączane do obudowy komputera. Kilka firm wymienionych w Dodatku A specjalizuje się w produkcji obudów, wsporników, śrub i innych elementów przydatnych podczas montowania systemów i instalacji napędów. W trakcie podłączania napędu szczególną uwagę należy zwrócić na prawidłowe podłączenie przewodu zasilającego. Zwykle wtyk zasilania posiada występ zapobiegający nieprawidłowemu podłączeniu do gniazda. Podobnie instaluje się kabel interfejsu. Jeśli na jego złączu brakuje występu umożliwiającego prawidłową orientację wtyczki, to pozycję pinu (styku) nr l wskazuje krawędź przewodu o zmienionym (zwykle czerwonym) kolorze. Kabel jest prawidłowo podłączony, jeśli kolorowa krawędź znajduje się od strony wycięcia w złączu krawędziowym napędu.
Rozpoznawanie i usuwanie problemów Większość problemów z napędami dyskietek wywołana jest nieprawidłową konfiguracją, instalacją lub obsługą napędu. Niestety, konfiguracja i instalacja napędu dyskietek jest dużo bardziej skomplikowana, niż wydaje się to przeciętnemu serwisantowi komputerowemu. Nawet po „profesjonalnym" zainstalowaniu napędu może on być niepoprawnie skonfigurowany
Problem nie istniejących katalogów (sygnał DC) Jedną z częściej spotykanych pomyłek popełnianych przy instalowaniu napędu jest niepoprawne ustawienie sygnałów wysyłanych do kontrolera stykiem numer 34. Wszystkie napędy (oprócz napędu 360 kB) należy skonfigurować tak, aby stykiem numer 34 wysyłany był sygnał zmiany dyskietki (sygnał DC). Efektem nie wysłania sygnału DC wówczas, gdy powinien on zostać wysłany, może być uszkodzenie danych na dyskietkach. Na przykład, użytkownik komputera PC może powiedzieć trzymając dyskietkę w ręku: „Jeszcze przed chwilą na tej dyskietce miałem pliki dokumentów, a teraz wygląda, jakbym przeniósł na nią inną dyskietkę, do tego z edytorem tekstu. Kiedy próbuję uruchomić programy, które pojawiły się na tej dyskietce, system zawiesza się lub zgłasza błąd". Jest to naturalnie efektem uszkodzenia dyskietki, a odzyskanie z niego dokumentów użytkownika będzie wymagało niemal magicznych sztuczek. Szczęściem w nieszczęściu w przypadku tego rodzaju uszkodzenia jest możliwość odzyskania większości (jeśli nie wszystkich) danych znajdujących się na dyskietce. Innym symptomem błędnej konfiguracji jest problem wyświetlania nie istniejących katalogów. Aby go zaobserwować, należy umieścić dyskietkę z plikami w napędzie A: komputera zgodnego z AT i podać polecenie DIR A:. Dyskietka zaczyna się obracać, dioda świecąca włącza się i po kilku sekundach na ekranie pojawia się zawartość katalogu dyskietki. Wszystko wydaje się w porządku. Następnie należy dyskietkę wyjąć i włożyć inną, z innymi plikami, po czym powtórnie wpisać polecenie DIR A:. Jeśli tym razem przed wyświetleniem zawartości katalogu dyskietka obraca się bardzo krótko lub wcale i wyświetlone są te same pliki, co na poprzedniej dyskietce, wyjętej przecież z napędu, mamy do czynienia z problemem nie istniejących katalogów. Należy sobie uświadomić, że w takiej sytuacji dyskietka znajdująca się w napędzie jest narażona na uszkodzenie. Jeśli zostanie na niej zapisana jakakolwiek informacja, sektory z tablicą FAT i głównym katalogiem pierwszej dyskietki (przechowywane w pamięci komputera), zostaną na nią również skopiowane, powodując nadpisanie ustawień poprawnych i utratę dostępu do wszystkich danych wcześniej znajdujących się na dyskietce. Większość systemów zgodnych z AT jest wyposażona w kontrolery obsługujące niską lub wysoką gęstość zapisu i wszystkie wykorzystują system buforowania tablic FAT i katalogów ostatnio odczytywanych dyskietek w pamięci RAM. Ponieważ informacje te są przechowywane w pamięci, nie trzeba ich często odczytywać z dyskietki. Dzięki takiemu rozwiązaniu czas dostępu do informacji znajdujących się na dyskietce ulega znacznemu skróceniu, ale w przypadku problemu nie istniejących katalogów (nie przesyłania sygnału DC) mogą ulec utracie wszystkie dane znajdujące się na używanych dyskietkach. Podniesienie dźwigni blokady dyskietki lub naciśnięcie przycisku wyrzucającego dyskietkę powinno spowodować wysłanie do kontrolera sygnału DC powodującego opróżnienie buforów w pamięci komputera. Po wykonaniu tej czynności, podczas następnego dostępu do dyskietki, tablice FAT i katalog główny dyskietki zostaną ponownie z niej odczytane. Jeśli sygnał DC nie zostanie wysłany po zmianie dyskietki, bufory w pamięci nie zostaną opróżnione, przez co system będzie działać tak, jakby w napędzie wciąż znajdowała się poprzednia dyskietka.
W tej sytuacji zapisywanie na nowo włożonej dyskietce spowoduje nie tylko zapisanie pliku, lecz także części lub całości tablic FAT i katalogu dyskietki uprzednio się tam znajdującego. Oprócz tego, nowy plik zostanie zapisany w miejscu uważanym za wolne, ale na dyskietce poprzedniej, co może okazać się nieprawdą w przypadku bieżącej dyskietki i spowodować uszkodzenie plików i danych. Istnieje kilka prostych rozwiązań tego problemu. Jedno z nich jest tymczasowe, inne -trwałe. Szybkim, chwilowym rozwiązaniem jest naciśnięcie klawiszy [CTRL+BREAK] lub [CTRL+C] natychmiast po zmianie dyskietki, co zmusza system DOS do opróżnienia buforów w pamięci RAM. Metoda ta nie różni się od stosowanej w systemie operacyjnym CP/M. Po naciśnięciu jednej z podanych kombinacji klawiszy, podczas najbliższego dostępu do dyskietki system ponownie odczytuje tablicę FAT i katalog główny dyskietki, umieszczając ich nowe wersje w pamięci. Innymi słowy, należy się upewnić, że po każdej zmianie dyskietki bufory w pamięci komputera zostaną opróżnione. Ponieważ opisane rozwiązanie funkcjonuje jedynie w systemie DOS (a nie w Windows), nie można z niego korzystać zmieniając dyskietki w trakcie pracy dowolnej aplikacji. Trwalsze i właściwsze rozwiązanie jest dosyć proste - wystarczy poprawić konfigurację napędu. Niewłaściwa konfiguracja napędu jest bowiem przyczyną tego problemu w dziewięciu na dziesięć przypadków. Należy pamiętać o prostej zasadzie: jeśli w napędzie znajduje się blok oznaczony literami DC, należy umieścić w nim zworkę. Jeśli jesteśmy pewni, że napęd został poprawnie zainstalowany - na przykład jeśli pracował poprawnie, lecz po pewnym czasie pojawiły się problemy - należy sprawdzić wymienione poniżej ewentualne przyczyny blokady sygnału DC * Uszkodzony kabel. Należy sprawdzić połączenie pinu numer 34. *Konfiguracja napędu lub komputera. Należy sprawdzić, czy jest aktywny sygnał DC i czy w pamięci CMOS został ustawiony odpowiedni typ napędu. *Uszkodzony czujnik zmiany dyskietki. Należy oczyścić czujnik lub wymienić napęd i ponownie go przetestować *Uszkodzona elektronika napędu. Należy wymienić napęd i ponownie go przetestować. * Uszkodzony kontroler. Należy wymienić kontroler i ponownie go przetestować. *Nieodpowiednia wersja systemu DOS. Jeżeli ostatni punkt jest przyczyną problemu, może to być pewnym zaskoczeniem, gdyż sprzęt sprawia wtedy wrażenie poprawnie działającego. Zasadą powinno być korzystanie z tej samej wersji OEM systemu DOS, jaką stosuje producent komputera. Na przykład, powinno się korzystać z systemu IBM DOS w przypadku komputerów IBM, Compaq DOS w systemach Compaq, podobnie postępując w przypadku systemów Zenith, Toshiba, Tandy i innych. Problem ten dotyczy zwłaszcza komputerów typu laptop, w których zmodyfikowano konstrukcję kontrolera dysków, tak jak w laptopach firmy Toshiba. Zwłaszcza w tego rodzaju systemach należy posłużyć się odpowiednią wersją systemu DOS (np. Toshiba DOS).
Niesymetryczny uchwyt dyskietki Niesymetryczne uchwycenie dyskietki przez napęd jest częstą przyczyną problemów z dyskami. Wyjęcie i ponowne włożenie dyskietki pozwala na poprawne ułożenie dyskietki w napędzie, co natychmiast eliminuje problem. Postępowanie to jest skuteczne w większości przypadków, lecz nie pomoże, jeśli dyskietka niesymetrycznie przez napęd uchwycona została już sformatowana. W takiej sytuacji można jedynie skopiować niepoprawnie zapisaną dyskietkę na nową poleceniem DISKCOPY, po czym wypróbować na obu dyskach różne metody odzyskiwania danych.
Naprawa napędów dyskietek Sposoby naprawiania napędów zmieniały się z biegiem lat, głównie z powodu obniżania ich cen. Kiedy napędy były drogie, częściej je naprawiano niż wymieniano. Przy spadającej co roku cenie napędów, niektóre naprawy bardziej pracochłonne lub wymagające większej ilości części stały się nieopłacalne. Ze względu na koszty, naprawa napędu dyskietek ogranicza się zwykle do czyszczenia głowic i przesmarowania mechanizmów ruchomych. W przypadku napędów, w których można zmieniać prędkość obrotową, często wykonuje się stosowną regulację tej prędkości. Warto zaznaczyć, że większość nowych napędów 5,25" o standardowej wysokości i niemal wszystkie standardowe napędy 3,5" nie wymagają regulacji prędkości. Napędy te mają odpowiednie obwody wykorzystujące pętlę sprzężenia zwrotnego do automatycznego ustawiania odpowiedniej prędkości obrotów i kompensujące ewentualne jej zmiany. Jeśli taki napęd nie potrafi utrzymać stałej prędkości obrotowej, zwykle oznacza to awarię wspomnianego obwodu. W takiej sytuacji konieczna jest wymiana napędu
Czyszczenie napędów dyskietek Czasami problemy przy odczycie i zapisie danych spowodowane są zabrudzeniem głowic. Czyszczenie napędu jest dosyć proste; można je wykonać na dwa sposoby: *Wykorzystać jeden z dostępnych w sklepach z akcesoriami zestawów do czyszczenia głowic. Ich obsługa jest prosta i nie wymaga otwierania obudowy komputera. * Czyszczenie ręczne: należy wykorzystać materiał czyszczący z płynem, np. czystym alkoholem lub trójchloroetanem. Tym razem trzeba zdjąć obudowę komputera w celu odsłonięcia napędu, a w wielu przypadkach (zwłaszcza przy starszych napędach o podwójnej wysokości) również wyjąć i częściowo rozmontować sam napęd. Metoda ręczna daje zwykle lepsze rezultaty, lecz nie są one warte wkładu pracy, jakiego wymagają. Dostępne są dwa rodzaje zestawów do czyszczenia. W jednym z nich stosuje się ciecz nanoszoną na dyskietkę czyszczącą, która pomaga wymyć głowice. Są też zestawy do czyszczenia na sucho, w których tarcie dyskietki ma zapewnić odpowiednie oczyszczanie głowic. Osobiście nie polecam zestawów do czyszczenia na sucho. Należy stosować zestawy z cieczą nanoszoną na dyskietkę czyszczącą. Suche dyskietki zbytnio zużywają głowice, jeśli używa się ich niewłaściwie lub zbyt często; czyszczenie na mokro jest znacznie bezpieczniejsze. Czyszczenie ręczne wymaga uzyskania dostępu do głowic. Do czyszczenia używa się miękkiego materiału nasączonego płynem czyszczącym. Metoda ta wymaga pewnego doświadczenia: proste wycieranie głowic może spowodować ich mechaniczne rozregulowanie. Należy posługiwać się ostrożnymi ruchami do wewnątrz i na zewnątrz, stosując małą siłę nacisku. Odradza się stosowanie ruchów poprzecznych (względem kierunku ruchu głowic); mogą one naruszyć głowice, powodując ich rozregulowanie. Z powodu opisanych trudności i zagrożeń, w większości przypadków zaleca się czyszczenie za pomocą odpowiedniego zestawu jako metodę najprostszą i najbezpieczniejszą. Najczęściej zadawane pytanie dotyczące czyszczenia brzmi „Jak często czyścić głowice napędu?" Na to pytanie należy odpowiedzieć sobie samodzielnie. W jakim środowisku pracuje system? Czy w pobliżu komputera przebywają osoby palące tytoń? Jeśli tak, to czyszczenie należy przeprowadzać częściej niż zwykle.
Zwykle natomiast stosuje się zasadę, że w czystym, biurowym otoczeniu bez dymu i innych zanieczyszczeń powietrza, głowice powinny być czyszczone raz w roku. W mocno zadymionym otoczeniu czyszczenie może okazać się konieczne co sześć miesięcy lub nawet częściej. W pełnym zanieczyszczeń środowisku przemysłowym głowice mogą wymagać czyszczenia nawet co miesiąc. Najlepszych wskazówek udziela własne doświadczenie. Jeśli system DOS zgłasza błędy dyskietki, wyświetlając znajomy komunikat „Abort, Retry, ignore" lub w wersji polskiej „Anuluj, powtórz, zignoruj" - przeczyszczenie głowic może rozwiązać problem. Jeśli rozwiązało, prawdopodobnie trzeba będzie zwiększyć częstotliwość przeprowadzanych konserwacji W niektórych przypadkach wskazane jest przesmarowanie mechanizmu blokady dyskietki lub punktów mechanicznego kontaktu wewnątrz napędu. Nie należy stosować oleju; wskazane jest wykorzystanie czystego smaru silikonowego. Olej szybko łapie kurz i po pewnym czasie zwykle oblepia mechanizm. Smar silikonowy nie łączy się z kurzem w takim stopniu i można go bezpiecznie stosować. Zaleca się stosowanie bardzo małych ilości smaru; nie wolno wkrapiać ani rozpylać smaru do wnętrza napędu. Należy pilnować, aby smar został naniesiony tylko tam, gdzie jest potrzebny. Jeśli będzie pokrywał całe wnętrze napędu, spowoduje następne niepotrzebne kłopoty.
Ustawianie głowic w napędzie Jeśli głowice w napędzie dyskietek są nieprawidłowo ustawione, zapisane za ich pomocą dyskietki nie będą czytane przez inne napędy. Sytuacja ta grozi dość poważnymi konsekwencjami, jeśli nie zostanie w porę wykryta. Przy dostatecznie niewłaściwym ułożeniu głowic, problemy można będzie zauważyć już podczas odczytywania oryginalnych dyskietek z oprogramowaniem, choć wciąż będzie można tworzyć własne dyskietki. W celu sprawdzenia ustawienia głowic i działania napędu dyskietek, można się posłużyć programem Drive Próbę firmy Accurite, którego działanie opisuję poniżej. W celu rozwiązania omawianego problemu konieczne staje się poprawne ustawienie głowic. Operacji tej nie zaleca się ze względu na jej wysokie koszty w porównaniu do wymiany napędu na nowy. Dodatkowo pojawia się problem nie przewidziany przez wiele osób: nowo ustawiony napęd może nie odczytać dyskietek zapisanych w czasie, gdy głowice były nieprawidłowo ustawione. Wymiana wadliwego napędu na nowy umożliwia wykorzystanie starego napędu do skopiowania zawartości tych dyskietek na nowe za pomocą polecenia DISKCOPY. Ustawianie głowic nie jest już wykonywane ze względu na wysokie koszty tej operacji. W celu poprawnego jej wykonania niezbędny jest oscyloskop (za ok. 2000 złotych), specjalna dyskietka wzorcowa (ok. 300 złotych) i dokumentacja producenta napędu; poza tym na ustawienie jednego napędu trzeba poświęcić pół godziny pracy. Specjalny program o nazwie Drive Próbę firmy Accurite wykorzystuje specjalne dyskietki diagnostyczne wysokiej rozdzielczości - HRD (High-Resolution Diagnostic). Dyskietki te są równie dokładne jak dyskietki ustawiania analogowego (AAD) i eliminują przy tym konieczność stosowania oscyloskopu. Nie należy posługiwać się programami bazującymi na starszych dyskietkach typu DDD (digital diagnostic disk - cyfrowy dysk diagnostyczny) lub na dyskietkach testowych o formacie spiralnym, gdyż nie dają one dokładności wymaganej przy ustawianiu głowic. Program Drive Próbę z systemem HRD może zmniejszyć sprzętowe koszty ustawiania głowic, lecz nie oszczędzi nakładów pracy niezbędnych do wykonania tej operacji.
Przy obecnych cenach napędów, oscylujących wokół ceny 35 dolarów, ustawianie głowic, nawet bez użycia oscyloskopu, zwykle nie jest uzasadnione finansowo. Istnieje tylko jeden wyjątek: przy dużej liczbie napędów, ustawianie w nich głowic może się jeszcze opłacać. Wyjściem może być w związku z tym odnalezienie lokalnej firmy wykonującej taką usługę, zwykle za 20 do 50 dolarów. Należy porównać żądaną cenę z kosztem wymiany, uwzględniając przy tym zużycie starego napędu. Nowy napęd 1,44 MB można kupić już za 25 dolarów. Przy takich cenach ustawianie głowic jest pozbawione sensu
Napędy lomega ZIP Kolejnym z nowszych rozwiązań w dziedzinie napędów dysków jest popularny napęd Zip firmy lomega. To urządzenie jest dostępne jako wewnętrzny napęd SCSI lub IDĘ bądź jako zewnętrzne urządzenie podłączane poprzez interfejs SCSI lub port równoległy. Istnieje także wersja o obniżonym poborze mocy, przeznaczona do komputerów przenośnych. Napęd potrafi zapisać do 100 MB danych na małym wymiennym magnetycznym nośniku przypominającym dyskietkę 3,5". Czas dostępu do danych wynosi w przybliżeniu 29 ms, zaś przy użyciu interfejsu SCSI prędkość odczytu danych osiąga l MB/s. Gdy napęd jest podłączany poprzez port równoległy, szybkość urządzenia jest często ograniczana przez szybkość samego portu. W napędach Zip używa się oryginalnych nośników 3,5", stworzonych przez firmę [omega. Są one prawie dwa razy grubsze od standardowej dyskietki 1,44 MB. Napędy Zip nie akceptuj ą standardowych dyskietek 1,44 MB czy 720 kB, co spowodowało, że standard ten nie stał się następcą dyskietki. Wewnętrzne napędy Zip stają się jednak coraz bardziej popularne w nowych komputerach osobistych, zaś modele zewnętrzne mogą stanowić efektywne rozwiązanie problemu przenoszenia danych pomiędzy osobnymi komputerami. Czołowi producenci komputerów nie zainteresowali się jednak nowymi możliwościami i nadal BIOS komputerów osobistych nie uwzględnia sposobu uruchomienia komputera z nośnika w napędzie Zip ani też zastąpienia tym urządzeniem stacji dysków w komputerze. W przypadku napędów Zip czasem występuje także efekt „klikania", kiedy to napęd bezustannie wydaje specyficzny, rytmiczny dźwięk. W tym momencie dane na dysku mogą zostać uszkodzone i należy wymienić zarówno dysk, jak i sam napęd. Wreszcie, koszt nośnika w napędzie Zip prawie dwukrotnie przewyższa koszt pojemniejszych napędów LS-120, które oprócz tego stanowią standard przemysłowy bezpośrednio obsługiwany przez BIOS nowocześniejszych komputerów. Specyfikację napędu Zip zawiera tabela 13.8 Tabela 13.8. Specyfikacja napędu Zip Model (Interfejs) Pojemność po sformatowaniu
SCSI i/lub Złącze równoległe 100 MB
Maksymalna utrzymywana szybkość transl,40 M B/s misji Minimalna utrzymywana szybkość transmisji 0,79 MB/s Maksymalna przepustowość 60 MB/min (SCSI); 20 MB/min (złącze równoległe) Średni czas wyszukiwania 29 ms Prędkość obrotowa dysku 2941 rpm Rozmiar bufora 32 kB
EIDE 100 MB l.40 MB/s 0,79 MB/s 84 MB/min 29 ms 2941 rpm 16 kB
Napędy typu Floptical Podczas wyścigu technologicznego został opracowany specjalny typ napędu dyskietek o wysokiej pojemności, który nazwano floptical. Przez lata dostępne były wersje o pojemności 21 MB i 120 MB, przy czym napędy 21-megabajtowe stały się z czasem przestarzałe. Starszy model 21 MB, opracowany przez firmę Insite Peripherials, umożliwiał pomieszczenie 21 MB danych na dysku o wielkości dyskietki 3,5". Ostatnio firmy 3M i Matsushita wprowadziły nowy napęd o nazwie LS-120, który na jednej dyskietce 3,5" może przechowywać aż 120 MB danych. Dodatkowo napęd ten potrafi zapisywać i odczytywać standardowe dyskietki 1,44 MB i 720 kB (choć nie współpracuje z dyskietkami 2,88 MB). Z powodu znacznie większej pojemności i możliwości korzystania ze standardowych dyskietek, nowe napędy 120 MB zostały przez wielu uznane za idealnego następcę napędu dyskietek. Nazwa „floptical" może sugerować wykorzystywanie promienia lasera do wypalania informacji na dysku bądź do przygotowania nośnika do zapisu magnetycznego, podobnie jak dzieje się w dyskach CD-R i WORM (WORM - skrót od ang. Write Once, Read Many jednokrotny zapis, wielokrotne odczytywanie). Jednak przekonanie to jest błędne. Głowice odczytująco - zapisujące tego napędu posługują się standardową technologią magnetyczną, podobnie jak w napędach dyskietek. Dyskietka „floptyczna" zbudowana jest z takich samych materiałów magnetycznych (związków żelaza) jak dyskietki i dyski twarde. Zwiększona pojemność tych napędów wynika z gęstszego niż na dyskietce 1,44 MB upakowania ścieżek. Oczywistym jest, że pomieszczenie na dyskietce tak wielu ścieżek wymaga znacznego ich zwężenia. I właśnie do tego celu wykorzystano technologię optyczną. W napędach typu floptical stosowany jest specjalny mechanizm optyczny, umożliwiający poprawne ustawienie głowic odczytująco-zapisujących nad ścieżkami zapisanymi na dyskietce. Wykorzystana metoda pozycjonowania opiera się na tzw. servo information (informacji wspomagającej), która definiuje w określony sposób położenie każdej ścieżki, a wytłaczana jest na powierzchni dyskietki w czasie jej produkcji w taki sposób, że nie da się tych informacji nadpisać. Podczas każdego zapisu na dyskietce floptycznej, mechanizm zapisujący (w skład którego wchodzą m.in. głowice odczytująco-zapisujące) jest precyzyjnie naprowadzany na właściwe miejsce za pomocą lasera i owych informacji wspomagających. Gdy napęd floptyczny odczytuje dane, informacje te znowu są wykorzystywane przez laser do precyzyjnego ustawienia głowic we właściwym położeniu.
Napędy floptical o pojemności 21 MB Oryginalne dyski firmy Insite o pojemności 21 MB mają ścieżki sformatowane do postaci 27 sektorów po 512 bajtów każdy. Same dyski obracają się z prędkością 720 obrotów na minutę. Szybkość przesyłania danych w tych dyskach wynosi niemal 10 MB na minutę. Napędy te połączone były z systemem za pomocą interfejsu SCSI. Niestety, istniało wiele powodów, które zadecydowały o niepowodzeniu tych napędów. Najważniejszymi z nich były: brak tych napędów w standardowych konfiguracjach bardziej znaczących producentów komputerów oraz to, że napędy te nie były obsługiwane przez sterowniki BIOS-u. Również producenci systemów operacyjnych, tacy jak Microsoft, IBM i Apple, nie umożliwili bezpośredniej obsługi tych napędów za pomocą swoich produktów
Napędy Floptical LS-120 (120 MB) Napęd LS-120 był projektowany tak, aby stać się nowym standardem dla napędów dyskietek w klasie komputerów osobistych. Napęd ten zaprojektowały wspólnie firmy 3M oraz Matsushita-Kotobuki Electronics Industries Ltd. Może on zapisywać 120 MB danych, czyli 80 razy więcej informacji niż dyskietka HD (1,44 MB). Oprócz większej pojemności, ten rodzaj napędu umożliwia również szybszą współpracę z komputerem -pracuje bowiem do pięciu razy szybciej niż standardowe napędy dyskietek. Napęd LS-120 może działać jako napęd startowy A: i jest w pełni zgodny z systemem Windows NT oraz Windows 95. Ponadto obsługuje standardowe dyskietki 720 kB i 1,44 MB, tyle że dane na nich zapisuje i odczytuje do trzech razy szybciej niż napędy zwykłe. Napędy ZIP nie mają takiej możliwości; nośnik do napędów ZIP ma przy tym mniejszą pojemność i jest droższy od nośnika 3M LS-120. Napęd LS-120 wyposażony jest w standardowy interfejs IDĘ, obecny w większości komputerów. Napędy ZIP z reguły wykorzystują wolniejszy port równoległy lub wymagają dodania do systemu adaptera SCS1, zwiększającego koszty instalacji. Ostatnio firma lomega zaczęła jednak dostarczać producentom systemów wersje IDĘ napędów, z których również można uruchamiać komputer. Napędy te powinny wkrótce pojawić się na rynku. Napędy LS-120 wydają się idealnym rozwiązaniem dla komputerów przenośnych, ponieważ zastępują nie tylko typowe dyskietki, lecz również fizycznie sam napęd wewnątrz obudowy. Mając w komputerze przenośnym napęd o wysokiej pojemności, można używać w podróży względnie tanich, wymiennych dyskietek 120 MB. Doskonale nadają się one do przechowywania całych aplikacji lub baz danych, umożliwiając wyjęcie dyskietki i zabezpieczenie jej, gdy komputer nie jest wykorzystywany. Firma Compaq była pierwszym producentem oferującym komputery z napędami LS-120. Inni wiodący producenci komputerów dołączają napędy LS-120 do swoich produktów, ustanawiając w ten sposób nowy standard napędów dyskietek. Napędy te można kupić również osobno, nie tylko w zestawie. Zarówno wewnętrzna, jak i zewnętrzna wersja napędu kosztuje około 450 złotych. Dyskietki 120 MB można kupić w cenie ok. 60 zł za sztukę lub taniej. Dyskietki 3 M LS-120 mają te same kształty i rozmiary, co standardowa dyskietka 1,44 MB; jednak do osiągnięcia większej pojemności i szybkości działania wykorzystują one połączenie technologii optycznej i magnetycznej. Technologia LS-120, której nazwa pochodzi od wykorzystanego w niej typu mechanizmu (Laser Servo), wymaga umieszczenia na dyskach ścieżek stanowiących odniesienie optyczne, wykorzystywane przez system laserowy podczas odczytu i zapisu. Znajdujący się w napędzie czujnik optyczny pozwala na precyzyjne ustawienie głowic odczytująco - zapisujących nad magnetycznymi ścieżkami zawierającymi dane; tym sposobem umożliwia osiągnięcie gęstości 2 490 TPI (na dyskietce 1,44 MB ścieżki zapisywane są z gęstością 135 TPI). Firma 3M przeniosła ostatnio swój wydział napędów dyskowych i taśm do notowanej na giełdzie firmy Imation. Dodatkowe informacje na temat napędów LS-120 i podobnych jemu produktów firmy 3M można więc znaleźć w serwisie WWW firmy Imation pod następującym adresem:
http://www.imation.com
Rozdział 14 Napędy dysków twardych Dla większości użytkowników napęd dysku twardego jest najważniejszą i jednocześnie najbardziej tajemniczą częścią systemu komputerowego. Napęd dysku twardego jest zamkniętym urządzeniem wykorzystywanym przez system do przechowywania informacji. Jego awaria wiąże się z bardzo poważnymi konsekwencjami. Pełne zrozumienie działania dysku twardego jest niezbędne do utrzymania sprawności całego systemu, a także poprawnej obsługi tego systemu i jego późniejszej rozbudowy. Niemal każdy użytkownik komputerów pragnie poznać zasady działania dysku twardego i sposoby postępowania w wypadku jego awarii. Niestety, książek, które owe zasady i sposoby opisywałyby na tyle szczegółowo, by mogły się przydać technikom komputerowym oraz zaawansowanym użytkownikom, jest niewiele. Celem niniejszego rozdziału jest wypełnienie tej luki. Znaleźć w nim zatem można pełny opis dysku twardego z fizycznego, mechanicznego oraz elektrycznego punktu widzenia. Szczególną uwagę zwracam w nim na praktyczne aspekty budowy i działania dysku.
Definicja dysku twardego W środku napędu dysku twardego można znaleźć sztywne, płaskie talerze (dyski), zwykle wykonane z aluminium lub szkła. Talerze dysków twardych, w odróżnieniu od talerzy dysków elastycznych, nie dają się ani wyginać, ani odkształcać, stąd ich nazwa - dyski twarde. W większości napędów dysków twardych, talerzy tych nie można też wyjmować (wymieniać); dlatego IBM nazywa je napadami dysków stałych. Przykładem napędu, w którym twarde dyski można wymieniać, jest napęd Jaz firmy lomega. Od swego mniejszego brata - napędu Zip, napęd Jaz różni się rodzajem wymiennego nośnika, który w jego przypadku jest taki sam jak w typowych twardych dyskach. Swego czasu napędy dysków twardych nazywano napędami typu Winchester. Termin ten wprowadzono w latach 60., kiedy to IBM opracował szybkie twarde dyski, zdolne pomieścić 30 MB na stałych talerzach napędu i 30 MB na talerzach wymiennych. Napęd taki zbudowany był z szybko obracających się talerzy oraz unoszących się nad nimi głowic. Napęd ten, początkowo nazywany napędem 30-30, szybko zyskał nazwę Winchester, pochodzącą od słynnego karabinu Winchester 30-30. Od tej pory napędy z głowicami unoszącymi się nad szybko wirującymi talerzami zyskały miano napędów typu Winchester. Termin ten nie ma żadnego znaczenia technicznego ani naukowego; jest określeniem żargonowym i uważa się go za synonim nazwy dysk twardy
Miary pojemności dysków twardych Podstawową miarą pojemności dysku twardego jest megabajt, na oznaczenie którego w niniejszym rozdziale będę używać skrótu MB. Niestety, nie ma różnicy między skrótami oznaczającymi wartości w systemie dziesiętnym i dwójkowym. Innymi słowy, litera MB może oznaczać zarówno „miliony bajtów", jak i „megabajty". Zwykle wartości dotyczące pamięci podaje się w liczbach pochodzących z systemu dwójkowego, podczas gdy pojemność dysków twardych określa się w milionach bajtów. Niestety, często prowadzi to do nieporozumień przy określaniu pojemności dysków twardych
Budowa dysków twardych W ciągu ponad 15 lat powszechnego ich stosowania w komputerach PC, budowa dysków twardych przeszła ogromne przeobrażenia. Stopień tych zmian łatwo sobie uzmysłowić po przeanalizowaniu kilku poniżej wymienionych przykładów: • Maksymalne pojemności wzrosły z 10 MB w napędach 5,25 cala o podwójnej (pełnej) wysokości do ponad 10 GB w małych dyskach 3,5 cala o standardowej wysokości lub ponad 3 GB w dyskach 2,5 cala do komputerów przenośnych. • Szybkość przesyłania danych wzrosła z przedziału od 85 do 102 kB na sekundę w komputerach XT (rok 1983) do niemal 10 MB na sekundę we współczesnych szybkich dyskach twardych • Średni czas dostępu uległ skróceniu z ponad 85 ms (milisekund) w przypadku dysków o pojemności 10 MB dla komputerów XT (rok 1983) do mniej niż 8 ms w szybkich dyskach produkowanych obecnie. • W 1982 roku dysk o pojemności 10 MB kosztował ponad 5 000 złotych (500 złotych za megabajt). Obecnie koszt dysków twardych spadł poniżej 30 groszy za megabajt
Gęstość powierzchniowa Gęstość powierzchniowa jest podstawowym wskaźnikiem używanym przez przemysł komputerowy do mierzenia stopnia rozwoju technologii dysków twardych. Wartość tego wskaźnika jest równa iloczynowi gęstości liniowej, liczonej w bitach na cal (BPI) i mierzonej wzdłuż ścieżek na dysku oraz liczby ścieżek na cal (TPI), mierzonej wzdłuż promienia dysku. Wynik mnożenia wyrażany jest w megabitach na cal kwadratowy (Mbit/cal2), a jego głównym zastosowaniem jest ocena efektywności technologii zapisu informacji. Obecne nowoczesne dyski 2,5-calowe osiągają gęstości rzędu 1,5 Gbit/cal2. Prototypowe konstrukcje dysków twardych mają gęstość 10 Gbit/cal2, umożliwiając produkcję dysków 2,5-calowych z jednym talerzem, których pojemność przekracza 20 GB. Gęstość powierzchniowa (a co za tym idzie - pojemność dysku) zwiększa się dwukrotnie co dwa-trzy lata, a masowo produkowane twarde dyski o gęstości powierzchniowej przekraczającej 10 Gbit/cal2 prawdopodobnie pojawią się przed rokiem 2000. 2,5-calowy talerz wykonany w tej technologii miałby pojemność ponad 10 GB, umożliwiając budowanie dysków mieszczących się w dłoni i mających pojemność 20 GB lub 30 GB. Wciąż powstają nowe technologie, takie jak ceramiczne lub szklane talerze, głowice magnetorezystywne (MR), zapisywanie pseudokontaktowe czy układy PRML (skrót od Partial Response Maximum Likelihood - częściowa odpowiedź, maksymalne prawdopodobieństwo), które pozwalają na osiąganie coraz to większych pojemności. Największym wyzwaniem w osiąganiu wyższych gęstości jest budowanie głowic i dysków działających przy coraz mniejszych tolerancjach. Dwukrotny wzrost osiągów technologii komputerowej wymaga tylko od dwóch do trzech lat niewiarygodne! Gdyby tylko inne gałęzie przemysłu mogły się pochwalić podobnymi wynikami...
Działanie dysku twardego Podstawowa zasada działania dysku twardego jest podobna do zasady działania dysków elastycznych: ruchome głowice przesuwają się nad wirującymi dyskami i zapisują dane w postaci ścieżek i sektorów. Ścieżka jest koncentrycznym okręgiem zawierającym informacje i podzielonym na pojedyncze sektory po 512 bajtów każdy. Istnieje jednak wiele cech, różniących dyski twarde od elastycznych
Dyski twarde mają zwykle wiele dwustronnych talerzy, z których każdy może przechowywać informacje. W większości dysków twardych znajdują się dwa lub trzy talerze, dające cztery lub sześć stron, a spotyka się też napędy z ponad 11 talerzami. Ścieżki znajdujące się w tym samym położeniu po obu stronach każdego z talerzy tworzą razem cylinder. W twardych dyskach najczęściej wykorzystuje się jedną głowicę z każdej strony talerza, a wszystkie głowice zamontowane są na jednym wózku. Zatem poruszanie głowic polega na jednoczesnym przesuwaniu ich nad powierzchnią talerzy; głowice nie dają się przesuwać niezależnie, gdyż wszystkie przymocowane są do tego samego wózka. Dysk twardy działa znacznie szybciej od napędu dysków elastycznych. Początkowo w większości dysków twardych prędkość obrotowa talerzy wynosiła 3 600 obrotów na minutę w przybliżeniu 10 razy więcej niż w przypadku dyskietek. Do niedawna prędkość 3 600 obr/min. była stosowana w większości dysków twardych. Jednak obecnie duża część dysków ma znacznie większe prędkości obrotowe. Na przykład 2,5-calowy dysk firmy Toshiba o pojemności 3,3 GB, montowany w notebookach, ma prędkość obrotową 4 852 obr/min.; w innych dyskach prędkość ta może osiągać 5 400, 5 600, 6400, 7200 czy nawet 10000 obr/min. Wysokie prędkości obrotowe w połączeniu z szybkimi mechanizmami pozycjonowania głowic i większą liczbą sektorów na ścieżce poprawiają wydajność określonych dysków względem innych, a połączenie wszystkich tych cech daje ogromną różnicę szybkości odczytu i zapisu danych notowaną między dyskami twardymi a elastycznymi. Podczas normalnej pracy, głowice w większości dysków twardych nie dotykają (i nie powinny dotykać!) obracających się talerzy. Jednak po wyłączeniu zasilania głowice osiadają na talerzach, gdy te przestają się obracać. W czasie pracy dysku bardzo cienka poduszka powietrza utrzymuje głowice tuż nad lub pod talerzem. Jeśli poduszka ta zostanie naruszona przez cząstkę kurzu lub wstrząs, głowice mogą zetknąć się z talerzami wirującymi przy pełnej prędkości. Gdy zetknięcie to jest na tyle silne, aby spowodować uszkodzenie, zdarzenie takie nosi nazwę zderzenia głowic. Uderzenie głowic o powierzchnię dysku może spowodować różne skutki, od utraty kilku bajtów danych, do całkowitego zniszczenia dysku. Większość dysków twardych ma specjalne smary na talerzach, których powierzchnie są specjalnie utwardzane, dzięki czemu mogą wytrzymać codzienne „starty i lądowania", a także bardziej gwałtowne zderzenia. Osiąganie bardzo dużych gęstości ścieżek jest możliwe dzięki temu, że talerze są szczelnie zamknięte i niewymienne. Ścieżki wielu dysków zapisane są z gęstością ponad 3 000 TPI (ścieżek na cal). Zespoły głowic dysku (HDA - Head Disk Assembly) zawierające talerze są więc montowane i zamykane w pomieszczeniach o absolutnej czystości. Ponieważ niewiele jest firm zajmujących się naprawą układów mechanicznych dysków, ich serwisowanie lub wymiana elementów może być dosyć droga. Pewne jest, że każdy wyprodukowany dysk twardy w końcu się zepsuje. Nie wiadomo tylko, kiedy awaria wystąpi i czy przed jej wystąpieniem zostanie wykonana kopia zapasowa ważnych plików Otwieranie dysku twardego nie jest zalecane. Jedynie serwisy wyposażone w specjalistyczny sprzęt mogą się odważyć na jakąkolwiek ingerencję we wnętrze dysku. Wielu producentów dysków twardych celowo utrudnia ich otwarcie, a oczywiste jest, że tego typu naprawa zrywa wszelkie umowy gwarancyjne Wielu użytkowników komputerów uważa, że twarde dyski są podatne na uszkodzenia -i rzeczywiście, należą one do najbardziej delikatnych urządzeń wchodzących w skład komputera. Mimo to, podczas prowadzonych przeze mnie seminariów dotyczących rozwiązywania problemów ze sprzętem i odzyskiwaniem danych, przez wiele dni używałem dysków twardych, z których zostały zdjęte obudowy, a nawet zdejmowałem te obudowy podczas pracy dysków. Dyski, o których piszę, nadal działają bezbłędnie. Oczywiście nie zalecam nikomu przeprowadzania podobnych prób na własnych dyskach, zwłaszcza jeśli są to dyski droższe, o większej pojemności.
Współczesne analogie napędu dysków Wielu z nas słyszało tradycyjne porównanie skali parametrów nośnika i głowic w twardym dysku do samolotu Boeing 747 lecącego metr nad ziemią z prędkością ponad 800 km/h. Analogia ta była przez lata wielokrotnie przytaczana, bez sprawdzania, czy jest słuszna. Otóż nie jest, a jednym z najbardziej nieprecyzyjnych jej elementów było przyrównanie głowicy do samolotu. Oznaczałoby to, że głowice „lecą" nisko nad talerzami, co nie jest zgodne z prawdą. Z punktu widzenia aerodynamiki, głowice wcale nie „lecą", lecz unoszą się na poduszce powietrznej wytwarzanej przy powierzchni obracających się talerzy. Lepiej byłoby posłużyć się przykładem poduszkowca; zasada jego działania znacznie bardziej przypomina sposób działania głowic dysku. Podobnie jak w poduszkowcu, wytworzenie i kontrola poduszki powietrznej pozwalającej głowicy utrzymać się nad powierzchnią talerza zależy od kształtu dolnej jej części. Ze względu na prawa fizyki, grubość owej poduszki, którą w przemyśle komputerowym często nazywa się łożyskiem powietrznym, jest niewielka. Nadszedł więc czas, aby zaproponować lepszą analogię, dokładniej oddającą rozmiary i prędkości stosowane we współczesnych twardych dyskach. Sięgnąłem więc po dokumentację dysku twardego i proporcjonalnie zwiększyłem wszystkie podane tam wielkości, tak aby wysokość lotu wynosiła ok. 2,5 cm (l cal). W poniższym przykładzie wykorzystane zostały parametry 3,5-calowego dysku SCSI-2 model Seagate ST-12550N Barracuda 2, o pojemności 2 GB (po sformatowaniu). W tabeli 14.2 można znaleźć parametry techniczne tego dysku pochodzące z dokumentacji producenta. Z tabeli tej wynika, że głowice mają długość 2,03 mm i wysokość 0,51 mm. Unoszą się na poduszce powietrznej o wysokości 0,127 mikrometra (milionowej części metra), nad talerzami przesuwającymi się z szybkością 86 kilometrów na godzinę (przy przeciętnej średnicy ścieżki wynoszącej 2,5 cala). Głowice te odczytują i zapisują bity rozmieszczone zaledwie co 0,487 mikrometra, na ścieżkach odległych od siebie o 8,336 mikrometra. Przeciętny czas przesunięcia głowic nad dowolną inną ścieżkę wynosi 8 ms. Tworząc porównanie, wszystkie powyższe wartości zostały powiększone tak, aby odległość głowicy od nośnika wyniosła 2,5 cm (ok. l cala). Ponieważ 2,5 cm to ok. 200 000 razy więcej niż 0,127 mikrometra, wszystkie wartości zostały pomnożone przez 200 000. Tabela 14.2. Parametry dysku Seagate ST-I2550N Parametr Gęstość liniowa Odległość między bitami Gęstość ułożenia ścieżek Odległości między ścieżkami Liczba ścieżek Prędkość obrotowa Średnia prędkość liniowa Długość głowicy Wysokość głowicy Odległość głowicy od nośnika Średni czas dostępu
Barracuda 2 Wartość 52 187 0,487 3 047 8,336 2 707 7 200 86,16 2,03 0,51 0,127 8
Jednostka miary Bity na cal (BPI) Mikrometry (uim) Ścieżki na cal (TPI) Mikrometry(uim) Obroty na minutę Kilometry na godzinę Milimetry (mm) Milimetry (mm) Milimetry (mm) Mikrometry (mm) Milisekundy (ms)
Głowica takiego „typowego" dysku twardego, po opisanym powiększeniu, miałaby ponad 410 metrów długości i 96 metrów wysokości (odpowiada to wielkością leżącemu na boku budynkowi Sears Tower!), a poruszałaby się z prędkością ponad 17,2 miliona kilometrów na godzinę (4 787 kilometrów na sekundę!) na wysokości 2,5 cm nad powierzchnią ziemi. W tym czasie odczytywałaby bity danych odległe od siebie o 9,73 cm, znajdujące się na ścieżkach ułożonych co 166 cm. Jakby tego było mało, przy średnim czasie dostępu 8 ms (0,008 sekundy), definiowanym jako czas potrzebny na przesunięcie głowic nad jedną trzecią ścieżek (w tym przypadku 902), każda z głowic wielkości drapacza chmur musiałaby w tym czasie pokonywać odległość 1,5 kilometra (902 ścieżki po 166 cm), co daje średnią prędkość przesuwania poprzecznego wynoszącą ponad 675 000 kilometrów na godzinę (187 kilometrów na sekundę)! Prędkość liniowa takiej hipotetycznej głowicy jest w ogóle trudna do wyobrażenia. Znalazłem na szczęście odpowiednie porównanie: średnica Ziemi mierzona na równiku wynosi ok. 12 752 km, co daje obwód ok. 40 064 km. Przy podanej prędkości liniowej głowica taka okrążałaby Ziemię co około 8 sekund! Analogia ta pozwala zrozumieć, jak bardzo należy docenić technologiczny cud, jakim są współczesne twarde dyski. W porównaniu z nią, stary przykład nisko lecącego Boeinga 747 wygląda raczej żałośnie (nie wspominając o tym, że jest on całkowicie niedokładny), nieprawdaż?
Magnetyczny zapis danych Poznanie zasad magnetycznego zapisu danych może pomóc w zrozumieniu sposobu działania dysku twardego, a także wpłynąć na poprawę efektywności pracy z dyskami twardymi i dyskietkami Niemal wszystkie dyski w komputerach osobistych działają w oparciu o prawa magnetyzmu. Dyski optyczne wykorzystuje się raczej jako dodatkowe pamięci masowe, podłączone do komputerów, których podstawowy dysk oparty jest na nośniku magnetycznym. Z powodu wysokich osiągów i pojemności nośników magnetycznych, prawdopodobnie nigdy nie zostaną one wyparte z komputerów PC przez dyski optyczne. Dyski magnetyczne, takie jak dyski twarde czy elastyczne, działają w oparciu o zasady elektromagnetyzmu. Podstawowe prawa fizyki związane z tymi siłami mówią, że prąd elektryczny płynący przez przewodnik wytwarza wokół przewodu pole magnetyczne. Wspomniane pole magnetyczne może wpływać na materiał magnetyczny znajdujący się w zasięgu jego działania. Gdy zmieni się kierunek przepływu prądu, zmienia się również polaryzacja pola magnetycznego. W silnikach elektrycznych efekt ten jest wykorzystywany do przemiennego wywoływania sił przyciągających i odpychających magnesy przymocowane do obracającego się wirnika. Inny efekt elektromagnetyzmu można zaobserwować, gdy przewodnik przesuwany jest w zmiennym polu magnetycznym - wówczas wytwarza się w nim prąd elektryczny. Wraz ze zmianą polaryzacji pola magnetycznego (biegunowości), zmienia się również kierunek przepływu prądu. Na przykład, działanie generatora stosowanego w samochodach (alternatora) polega na obracaniu się elektromagnesów w pobliżu uzwojeń mogących wytworzyć duże ilości prądu elektrycznego. Takie dwukierunkowe działanie elektromagnetyzmu pozwala zapisać dane na dysku, a następnie je odczytać. Głowice odczytująco-zapisujące w napędach dyskowych (zarówno w dyskach twardych, jak i elastycznych) są kawałkami materiału przewodzącego w kształcie litery U. Element taki jest owinięty uzwojeniami, którymi może płynąć prąd elektryczny.
Gdy układ elektroniczny dysku wymusza przepływ prądu przez te uzwojenia, w głowicy napędu wytwarzane jest pole magnetyczne. Gdy zmienia się kierunek przepływu prądu, zmianie ulega również polaryzacja pola magnetycznego. W gruncie rzeczy głowice są bowiem elektromagnesami, w których bardzo szybko można zmienić kierunek przepływu prądu. Gdy w głowicy powstaje pole magnetyczne, jego linie biegną przez szczelinę między zakończeniami głowicy mającej kształt litery U. Ponieważ pole magnetyczne dużo łatwiej rozchodzi się w przewodniku niż w powietrzu, pole to wygina się na zewnątrz wykorzystując leżący pod głowicą nośnik jako ścieżkę najmniejszego oporu między dwoma końcami głowicy. Gdy pole przechodzi przez nośnik pod głowicą, polaryzuje jego cząstki magnetyczne, powodując ich ułożenie wzdłuż linii pola. Polaryzacja pola -a więc jednocześnie nośnika magnetycznego - zależy w ten sposób od kierunku przepływu prądu przez uzwojenia. Dysk zbudowany jest z określonego materiału (np. mylaru w dyskach elastycznych bądź aluminium lub szkła w twardych dyskach), pokrytego warstwą magnetyczną składającą się zwykle z tlenków żelaza z dodatkiem różnych pierwiastków. Polaryzacja pól magnetycznych poszczególnych cząstek czystego (nie zapisanego) nośnika dysku jest zwykle zorientowana w sposób przypadkowy. Ponieważ pola te są skierowane w różne strony, każde z nich znosi się z polem skierowanym w stronę przeciwną, co w sumie daje efekt braku możliwej do zaobserwowania polaryzacji sumarycznej Cząstki w obszarze znajdującym się pod głowicą są ułożone zgodnie z kierunkiem pola magnetycznego emitowanego przez głowicę. Gdy domeny magnetyczne zostaną odpowiednio ułożone, ich pola już się nie znoszą, przez co w zajmowanym przez nie obszarze można zaobserwować pole magnetyczne. Pole takie jest generowane przez wiele cząstek magnetycznych, które wspólnie tworzą wykrywalne pole sumaryczne o określonym zwrocie. Termin strumień opisuje pole magnetyczne o określonej polaryzacji. Gdy dysk przesuwa się pod głowicą napędu, głowica ta może utrwalić magnetyczny strumień na obszarze dysku. Gdy płynący przez uzwojenia prąd elektryczny zostanie odwrócony, to samo dzieje się z polaryzacją pola magnetycznego w szczelinie głowicy. Zmiana ta powoduje również odwrócenie polaryzacji strumienia zapisywanego na dysku. Odwrócenie strumienia bądź też przemiana strumienia odpowiada zmianie polaryzacji ułożenia cząstek magnetycznych na powierzchni dysku. Głowica zapisuje informacje umieszczając na dysku strumień odwrócony. Przy zapisie każdego bitu (lub bitów) w określonych miejscach dysku, zwanych komórkami bitowymi lub komórkami odwróceń, umieszczana jest seria zmian strumienia. Komórka bitowa lub komórka odwróceń jest określonym obszarem dysku o wielkości zależnej od czasu i prędkości obrotowej, w której przez głowice napędu zapisywana jest odwrotność strumienia. Określony wzór odwróceń strumienia znajdujący się w komórkach bitowych, wykorzystany do zapisu bitów danych, nosi nazwę metody kodowania. Układ elektroniczny dysku lub kontrolera pobiera dane do zapisu i koduje je w serii zmian strumienia, przesyłanych w określonym czasie, przy zastosowaniu odpowiedniej metody kodowania. Często spotykane metody kodowania to MFM (Modified Frequency Modulation) zmodyfikowana modulacja częstotliwości — i RLL (Run Length Limited) - długość i ograniczenie przebiegu. Do zapisu na dyskach elastycznych stosuje się metodę MFM. W twardych dyskach wykorzystywana jest metoda MFM i kilka odmian metody RLL. Metody te są szczegółowo opisane w punkcie „Kodowanie MFM", w dalszej części tego rozdziału.
Podczas zapisu, do głowic przykładane jest napięcie, którego zmiany powodują również zmianę polaryzacji umieszczanego na dysku pola magnetycznego. Zmiany strumienia powstają dokładnie w tych miejscach, gdzie zmienia się polaryzacja prądu zapisu. Choć może się to wydawać dziwne, podczas odczytu głowice nie odtwarzają wiernie poprzednio zapisanego sygnału; zamiast tego wytwarzają impuls napięciowy (tzw. szpilkę) w chwili, gdy przesuwają się nad zmianą strumienia. Odwrócenie stanu polaryzacji z dodatniego na ujemny powoduje wytworzenie przez głowice impulsu o polaryzacji ujemnej; natomiast ze stanu ujemnego na dodatni - impulsu dodatniego. W gruncie rzeczy, podczas odczytu głowice pełnią rolę detektora zmian strumienia generującego impulsy napięciowe w trakcie napotykania odwróceń. W obszarach bez odwróceń nie powstają żadne impulsy. Na rysunku 14.1 przedstawiono związek między przebiegami napięć przy odczytywaniu i zapisie danych oraz odwrócenia strumienia zapisywane na dysku Rysunek 14.1 Proces zapisu i odczytu danych z nośnika magnetycznego
Sekwencję zapisu można traktować jak przebieg prostokątny o dodatnim lub ujemnym poziomie napięcia, polaryzujący nośnik w sposób ciągły, w określonym kierunku. Gdy przebieg napięcia przechodzi z wartości dodatnich do ujemnych lub na odwrót, zmienia się również polaryzacja strumienia magnetycznego. Podczas odczytu głowica wychwytuje zmiany polaryzacji strumienia, przekazując dalej serię impulsów. Innymi słowy, wartość sygnału jest równa zero, o ile nie wykryto dodatniej lub ujemnej zmiany pola, powodującej powstanie odpowiednio spolaryzowanego impulsu. Impuls taki pojawia się jedynie podczas przejścia głowicy nad zmianą strumienia na nośniku dysku. Znając wykorzystywane przy zapisie zależności czasowe, układ elektroniczny napędu lub kontrolera jest w stanie określić, czy dany impuls (czyli zmiana strumienia) mieści się w zadanej komórce odwróceń.
Prądy impulsów elektrycznych powstające w głowicy podczas odczytu są bardzo słabe i mogą zawierać znaczny udział szumów. Czułe układy elektroniczne napędu i kontrolera mogą wzmocnić sygnał ponad poziom szumów, po czym przekształcić szereg słabych impulsów elektrycznych z powrotem w ciąg danych identycznych (teoretycznie) z pierwotnie zapisanymi. Jak widać, dyski są zapisywane i odczytywane za pomocą metod opartych na podstawowych prawach elektromagnetyzmu. Zapis danych polega na przepuszczeniu prądu elektrycznego przez elektromagnes (głowicę) wytwarzający pole magnetyczne utrwalane na dysku. Odczyt danych odbywa się w czasie przesuwania głowicy nad powierzchnią dysku; gdy głowica napotka zmianę w polu magnetycznym nośnika, generuje słaby prąd elektryczny, wskazujący na zmianę lub brak zmiany strumienia pierwotnie zapisanego sygnału
Schematy kodowania danych Ogólnie mówiąc, nośnik magnetyczny przechowuje informacje w sposób analogowy. Jednak zapisywane dane mają postać cyfrową - zer i jedynek. Podczas podawania cyfrowej informacji na głowicę zapisującą, tworzy ona na nośniku domeny magnetyczne o określonej polaryzacji. Gdy na głowicę poda się napięcie o wartości dodatniej, domeny są polaryzowane w określonym kierunku; napięcie ujemne ustawia domeny w kierunku przeciwnym. Gdy zapisywany przebieg cyfrowy przechodzi z napięcia dodatniego na ujemne, polaryzacja domen magnetycznych ulega odwróceniu. Podczas odczytu informacji, gdy głowica napotka grupę domen o identycznej polaryzacji, nie powstaje w niej żaden prąd; głowica jest w stanie wykryć jedynie zmianę polaryzacji domen magnetycznych. Każde odwrócenie strumienia wytwarza w głowicy czytającej impuls napięciowy; właśnie te impulsy wykrywane są przez napęd podczas odczytu danych. Głowica czytająca nie może odtworzyć przebiegu identycznego z tym, który zapisano; zamiast tego wysyła serię impulsów, z których każdy pojawia się w miejscu występowania zmiany strumienia. W celu optymalizacji rozmieszczenia impulsów odpowiadających przechowywanym informacjom, czyste dane cyfrowe przechodzą przez urządzenie zwane koder/dekoder (endec). Podczas odczytu urządzenie to działa w sposób odwrotny niż podczas zapisu, przekształcając spotykane impulsy w pierwotne dane binarne. W miarę upływu czasu powstawały różne schematy kodowania informacji, z których niektóre okazały się lepsze, bardziej efektywne od innych. Przy każdej operacji związanej z informacjami cyfrowymi bardzo ważne są zależności czasowe. Podczas interpretacji odczytywanych lub zapisywanych przebiegów, dobranie momentu każdej zmiany napięcia jest niezwykle istotne. Jeśli rygory czasowe nie zostaną utrzymane, zmiana napięcia może zostać wykryta w niewłaściwym momencie, co może spowodować dodanie lub zgubienie bitów informacji, bądź też ich niewłaściwą interpretację. W celu zachowania precyzyjnych zależności czasowych, urządzenia odczytujące i zapisujące dane muszą być odpowiednio zsynchronizowane. Można to osiągnąć przez dodanie osobnego sygnału, zwanego sygnałem zegarowym, przesyłanego między dwoma urządzeniami. Sygnał zegarowy i sygnał danych można ze sobą połączyć i przesłać pojedynczą linią. Połączenie takie wykorzystywane jest w większości schematów kodowania stosowanych w nośnikach magnetycznych. Gdy impulsy zegarowe są połączone z danymi, zapewniona jest precyzja interpretowania poszczególnych komórek bitów, przesyłanych między dowolnymi urządzeniami. Impulsy zegarowe określają początek i koniec każdej komórki bitowej. Komórka bitowa mieści się między dwiema komórkami zegarowymi, w których może znajdować się sygnał zegarowy.
Zatem najpierw wysyłana jest komórka zegarowa, potem komórka danych i wreszcie komórka zegarowa dla następnego bitu danych. Wysyłane wraz z danymi sygnały zegarowe utrzymują synchronizację nawet w trakcie transferu długiego ciągu zer. Niestety, wszystkie komórki przejść wykorzystywane przez sygnały zegarowe zajmują na nośniku miejsce, które można by wykorzystać do przechowywania danych. Ponieważ liczba możliwych do zapisania na określonym dysku zmian strumienia ograniczona jest typem nośnika i technologią głowic, konstruktorzy dysków twardych wykorzystywali różne sposoby kodowania danych w jak najmniejszej liczbie odwróceń strumienia magnetycznego, pamiętając, że wymagane jest poświęcenie części z nich na sygnały zegarowe. Ich starania doprowadziły do wykorzystania dostępnej technologii w stopniu maksymalnym Choć próbowano różnych schematów kodowania, obecnie stosuje się jedynie kilka z nich. Dotychczas największą popularnością cieszyły się trzy podstawowe metody: • modulacja częstotliwości (FM), • zmodyfikowana modulacja częstotliwości (MFM), • ograniczona długość przebiegu (RLL). Poniżej przedstawione zostały zasady działania tych metod, ich zastosowania oraz wady i zalety.
Kodowanie FM Jedna z pierwszych technik kodowania danych, stosowana w pamięciach magnetycznych, nosi nazwę kodowania FM (Frequency Modulation) - modulacji częstotliwości. Ten schemat kodowania, nazywany czasami zapisem w pojedynczej gęstości, wykorzystywany był w pierwszych napędach dysków elastycznych, które montowano w komputerach osobistych. Na przykład napędy o pojedynczej gęstości były stosowane w komputerach przenośnych, umożliwiając przechowywanie na jednej dyskietce do 80 kB danych. Choć technika ta była popularna do końca lat 70-tych, obecnie nie jest już stosowana.
Kodowanie MFM Kodowanie zmodyfikowaną modulacją częstotliwości (MFM) opracowano w celu zmniejszenia liczby odwróceń strumienia obecnych przy stosowaniu metody FM, a co za tym idzie - w celu lepszego upakowania danych na dysku. W technice tej zminimalizowano liczbę komórek przejść przeznaczonych na impulsy zegarowe, pozostawiając więcej miejsca na dane. Sygnały synchronizujące zapisywane są jedynie wtedy, gdy zapisywany bit o wartości O poprzedzony jest innym zerem; w pozostałych przypadkach sygnały zegarowe są niepotrzebne. Z powodu ograniczenia liczby impulsów zegarowych, efektywną częstotliwość zapisu można było zwiększyć dwukrotnie w porównaniu z kodowaniem FM, pozwalając na przechowanie dwukrotnie większej liczby bitów, przy tej samej liczbie zmian strumienia, co podczas kodowania FM. Z powodu opisanej różnicy, kodowanie MFM nazywane jest również zapisem w podwójnej gęstości. Omawiana technika wykorzystywana jest praktycznie we wszystkich współczesnych napędach dysków elastycznych, a przez wiele lat była stosowana w niemal wszystkich twardych dyskach przeznaczonych do instalacji w komputerach osobistych. Obecnie w większości dysków twardych wykorzystuje się kodowanie RLL, które zapewnia jeszcze większą efektywność niż MFM. Ponieważ przy użyciu kodowania MFM można zapisać dwukrotnie większą liczbę bitów, przy zachowaniu tej samej liczby zmian strumienia, co w metodzie FM, częstotliwość przesyłania danych zwiększa się dwukrotnie. Oznacza to dwukrotny wzrost szybkości odczytu i zapisu, mimo zachowania tej samej, co w metodzie FM, częstotliwości przesyłania impulsów magnetycznych. W ten sposób, nie zmieniając technologii napędów, uzyskano dwukrotne powiększenie pojemności dysków i szybkości ich działania.
Jedynym wymogiem stawianym przez nowy sposób kodowania było poprawienie układów elektronicznych kontrolerów i napędów, spowodowane koniecznością bardziej precyzyjnego określania momentu pojawienia się zmian strumienia. Gdy tylko rozpoznano problem, wymagane usprawnienia okazały się łatwe do wprowadzenia, dzięki czemu kodowanie MFM na wiele lat stało się najpopularniejszą techniką zapisu
Kodowanie PLL Najpopularniejsza obecnie technika kodowania stosowana w dyskach twardych, nazwana kodowaniem RLL (Run Length Limited) - ograniczoną długością przebiegu, pozwala upakować na dysku do 50 % więcej informacji niż za pomocą metody MFM oraz trzykrotnie więcej niż w przypadku kodowania FM. W metodzie RLL grupy bitów tworzą jednostki, które są następnie łączone w celu utworzenia określonych kombinacji zmian strumienia. Zapisanie za pomocą owych kombinacji zarówno danych, jak i impulsów zegarowych umożliwia dalsze zwiększenie szybkości przesyłania danych przy zachowaniu tej samej odległości między kolejnymi odwróceniami strumienia na dysku. Kodowanie RLL wynalazła firma IBM i pierwsza wykorzystała je w wielu dyskach do komputerów klasy mainframe. W latach 80-tych metodę tę zaczęli wykorzystywać inni producenci celem zwiększenia pojemności dysków twardych komputerów PC. Obecnie niemal we wszystkich dyskach twardych stosowana jest jakaś odmiana kodowania RLL. Zamiast kodowania pojedynczego bitu, w metodzie RLL jednocześnie kodowana jest cała grupa bitów. Termin ograniczona długość przebiegu pochodzi od nazwy dwóch podstawowych parametrów tej metody, odpowiadających liczbie minimalnej (długość przebiegu) i maksymalnej (granica przebiegu) komórek odwróceń, które wolno umieścić między dwiema rzeczywistymi zmianami strumienia. Zmieniając owe parametry, można uzyskać różne schematy kodowania, spośród których prawdziwą popularność zyskały dwa: RLL 2,7 oraz RLL 1,7 Nawet metody FM i MFM można wyrazić jako formę kodowania RLL. Metodę FM można nazwać metodą RLL 0,1, gdyż co najmniej zero i co najwyżej jedna komórka odwróceń może oddzielać dwie zmiany strumienia. Metoda MFM z kolei odpowiada metodzie RLL 1,3, ponieważ pomiędzy dwoma zmianami strumienia można zostawić co najmniej jedną i co najwyżej trzy komórki odwróceń. Choć możliwe jest wyrażenie owych metod w formie RLL, w użyciu pozostało nazewnictwo tradycyjne. Metoda RLL 2,7 była początkowo najbardziej popu lamą odmianą RLL, gdyż umożliwiała wysoką gęstość upakowania przy takich samych odstępach między zmianami strumienia jak w metodzie MFM. Metoda ta daje wysoką pojemność i dużą niezawodność. Jednak w dyskach o bardzo dużej pojemności metoda RLL 2,7 okazała się zbyt zawodna. W większości współczesnych dysków twardych o dużej pojemności wykorzystuje się zatem kodowanie RLL 1,7, dające gęstość 1,27 razy większą niż metoda MFM przy relatywnie większym obszarze zmian. Z powodu zwiększenia obszaru, na którym wykrywana jest zmiana pola, kodowanie RLL 1,7 jest bardziej niezawodne i odporne na zakłócenia, co jest szczególnie pożądane, kiedy nośnik i głowice pracują na granicy możliwości technologicznych. Innym, mało popularnym wariantem metody RLL jest kodowanie RLL 3,9, nazywane czasem ARLL (zaawansowanym RLL), które pozwala osiągnąć jeszcze wyższe gęstości niż RLL 2,7. Niestety, spadek niezawodności okazał się również w jej przypadku zbyt duży, w związku z czym metoda ta była stosowana jedynie przez kilka firm i nie przyjęła się. Zrozumienie zasad kodowania RLL bez przestudiowania przykładu jest dosyć trudne. Ponieważ w starszych dyskach najpopularniejsza była odmiana RLL 2,7, wyjaśnienia będą oparte na jej przykładzie. Nawet ograniczając zakres rozważań do jednej określonej odmiany RLL, np. RLL 2,7 lub RLL 1,7, można skonstruować wiele różnych tablic kodowania, przedstawiających, jakie grupy bitów są przekształcane na odpowiadające im sekwencje zmian strumienia.
Zwłaszcza w przypadku RLL 2,7 można skonstruować tysiące różnych tablic translacji. W dalszych przykładach zostanie wykorzystana tablica kodowania stosowana przez IBM, będąca najczęściej spotykaną odmianą kodu RLL 2,7. Według tabel konwersji opracowanych przez IBM, określone grupy o długości dwóch, trzech i czterech bitów przekształcane są w ciągi zmian strumienia o długości odpowiednio czterech, sześciu i ośmiu komórek przejść. Wybrane sekwencje zmian kodowane dla określonej grupy bitów zaprojektowano tak, aby odwrócenia strumienia nie znajdowały się zbyt blisko lub zbyt daleko od siebie. Ograniczenie minimalnej odległości między zmianami strumienia wynika z ustalonej rozdzielczości głowic i nośnika dysku. Z kolei maksymalna dopuszczalna odległość między zmianami ma na celu utrzymanie synchronizacji impulsów zegarowych w urządzeniach. W tabeli 14.4 przedstawiony jest schemat kodowania RLL 2,7, opracowany przez IBM. Tabela 14.4. Przekształcanie danych na zmiany strumienia magnetycznego w kodowaniu RLL 2,7 (endec IBM) Wartości bitów danych
Kodowanie strumienia
1 0
NT NN
1 1
TN NN
0 0 0
NN NT NN
0 1 0
TN NT NN
0 1 1
NN TN NN
0 0 1 0
NN TN NT NN
0 0 1 1
NN NN TN NN
T zmiana strumienia N brak zmiany strumienia
Przyglądając się tej tabeli, można zauważyć, że zakodowanie bajta o wartości binarnej OOOOOOOlb za pomocą tej metody nie jest możliwe, ponieważ żadna kombinacja bitów z tabeli po złożeniu nie da tej wartości. Jednak przypadek taki nie stanowi problemu, ponieważ kontroler nie przesyła pojedynczych bajtów; zamiast nich przesyłane są całe sektory, co umożliwia zakodowanie takiego bajta przez dodanie po nim bitów z następnego bajta. Jedyny rzeczywisty problem występuje przy ostatnim bajcie sektora, jeśli trzeba po nim umieścić dodatkowe bity uzupełniające sekwencję. W takiej sytuacji układ endec (koder/dekoder) w kontrolerze po prostu dodaje nadmiarowe bity po ostatnim bajcie. Bity te są obcinane podczas operacji odczytu, zapewniając poprawne dekodowanie ostatniego bajta sektora.
Porównanie schematów kodowania Rysunek 14.2 przedstawia przykładowe przebiegi generowane podczas zapisywania na twardym dysku kodu ASCII litery X, przy wykorzystaniu trzech różnych technik kodowania Rysunek14.2 Kod ASCII litery „ X" zapisany przebiegami kodowania FM, MFM i RLL 2,7
W górnej linii każdego z powyższych przykładów umieszczono poszczególne bity danych (0101 lOOOb), znajdujące się w komórkach bitowych, rozdzielonych w czasie impulsem zegarowym, przedstawionym za pomocą kropki (.). Wykres znajdujący się poniżej przedstawia przebieg sygnału napięciowego i jego zmiany wywołujące odwrócenia strumienia. W najniższej linii opisano komórki przejść, gdzie literą T opisano komórkę z odwróceniem strumienia, a literą N - komórkę pustą. Najłatwiej opisać przykład kodowania FM. Każdy bit zapisany jest za pomocą dwóch komórek przejść: w jednej z nich przechowywany jest impuls zegarowy, a w drugiej -bit informacji. Wszystkie komórki zegarowe wypełnione są impulsami, natomiast komórki danych zawierają zmiany tylko wtedy, gdy przechowują bit o wartości l. Zero reprezentowane jest brakiem zmiany strumienia. Rozpoczynając od lewej strony, pierwszym bitem jest zero, dekodowane z sekwencji odwróceń strumienia magnetycznego TN. Następnym bitem jest jedynka, dekodowana z kombinacji TT. Kolejny bit to zero, znów dekodowane z TN i tak dalej. Posługując się tabelą 14.2, można łatwo prześledzić sposób zakodowania techniką FM całego bajta. Przy kodowaniu MFM również trzeba zapisywać komórki przejść zegara i danych. Jak jednak widać, komórki zegarowe zawierają zmiany strumienia magnetycznego jedynie wtedy, gdy zapisany bit o wartości O jest bezpośrednio poprzedzony innym zerem. Patrząc od lewej, pierwszy bit to O, co przy nieznanym bicie poprzedzającym (przyjmuje się, że o wartości 0) daje sekwencję zmian strumienia TN. Następny bit to l, zawsze kodowany sekwencją NT. Kolejnym bitem jest O, co przy poprzednim bicie równym l daje kombinację NN. Posługując się tabelą 14.3, łatwo można prześledzić sposób zakodowania metodą MFM pozostałej części bajta.
Można też zauważyć, że maksymalna i minimalna liczba komórek przejść między dowolnymi dwoma zmianami strumienia magnetycznego to odpowiednio jeden i trzy; dlatego też kodowanie MFM nazwane jest też czasem kodowaniem RLL 1,3. Metoda RLL 2,7 jest trudniejsza do przeanalizowania, ponieważ za jej pomocą zamiast pojedynczych bitów kodowane są ich grupy. Zaczynając od lewej, pierwsza grupa pasująca do wymienionych w tabeli 14.4 odpowiada układowi trzech bitów - 010. Bity te zakodowane są sekwencją TNNTNN. Następne dwa bity to 11, reprezentowane przez grupę TNNN. Bity kończące bajt - 000 - zakodowane są sekwencją NNNTNN. Jak widać na przykładzie, nadmiarowe bity uzupełniające ostatnią grupę nie pojawiły się. Warto zauważyć, że minimalna i maksymalna liczba pustych komórek przejść w powyższym przykładzie wynosi 2 i 6, choć w innej sytuacji maksymalna liczba mogłaby osiągnąć siedem pustych komórek. Stąd właśnie pochodzi nazwa RLL 2,7. Ponieważ w metodzie tej zapisuje się jeszcze mniej zmian strumienia niż przy MFM, można jeszcze bardziej zwiększyć częstotliwość impulsów zegarowych, do poziomu 3-krotnie większego niż w metodzie FM i 1,5 razy większego od zegara MFM, umożliwiając zapisanie większej ilości informacji na tym samym obszarze dysku. Należy jednak zauważyć, że z punktu widzenia liczby i wielkości odstępów między zmianami strumienia magnetycznego na danym obszarze dysku, uzyskany kształt przebiegu sygnału nie różni się od tego, jaki widać przy metodzie FM lub MFM. Innymi słowy, najmniejsze i największe fizyczne odstępy między dwoma odwróceniami strumienia pozostają stałe we wszystkich trzech przykładach metod kodowania.
Kodowanie PRML l Inną cechą nowoczesnych dysków twardych jest nowa konstrukcja obwodów odczytujących. Wykorzystana w nich technologia PRML (skrót od ang. Partial Response, Maximurr Likelihood - częściowa odpowiedź, maksymalne prawdopodobieństwo) umożliwię zwiększenie pojemności talerza dysku o 40 %. Metoda PRML zastępuje standardowe podejście „w danym momencie wykrywaj jeden impuls", stosowane w analogowych układach elektronicznych, cyfrową obróbką sygnału. Przy obróbce cyfrowej możliwe jest odfiltrowanie szumów, zezwalające na bliższe ułożenie zmian strumienia na talerzu. dające w efekcie większe gęstości. Przedstawione przykłady wraz z objaśnieniami powinny rozwiać część wątpliwości związanych z mechanizmem zapisywania danych na dysku. Przykłady te wykazały, że pomimo zwiększonej pojemności, zapewnionej stosowaniem schematów kodowania MFM lub RLL, rzeczywista gęstość upakowania impulsów magnetycznych na nośniku nie ulega zmianie.
Sektory Ścieżka na dysku ma zbyt dużą pojemność, aby mogła zostać efektywnie wykorzystana jako jednostka alokacji w procesach przechowywania informacji i zarządzania nią. Wiele ścieżek jest w stanie przechować 50 000 lub więcej bajtów, co przy małych plikach może okazać się bardzo nieefektywne. Z tego powodu ścieżki dyskowe dzielone są na mniejsze, ponumerowane fragmenty nazywane sektorami. Sektory te reprezentują wycinki ścieżki. W różnych typach napędów dysków elastycznych i twardych, ścieżki - zależnie od pojemności - dzielone są na różne ilości sektorów. Na przykład w formatach dyskietek stosuje się od 8 do 36 sektorów na ścieżce, a w dyskach twardych, gdzie ścieżki zapisywane są z większą gęstością, zapisuje się od 17 do 100 sektorów na ścieżce. Sektory tworzone podczas standardowej procedury formatowania mają pojemność 512 bajtów, a w przyszłości wielkość ta może ulec zmianie.
Sektory na ścieżce są numerowane poczynając od cyfry l, w odróżnieniu od cylindrów lub głowic numerowanych od cyfry 0. Na przykład, dyskietka 1,44 MB ma 80 cylindrów o numerach od O do 79, dwie strony o numerach O i l oraz 18 sektorów na ścieżce, numerowanych od l do 18. Gdy dysk jest formatowany, na jego powierzchnię nanoszone są dodatkowe obszary identyfikacyjne, umożliwiające kontrolerowi korzystanie z numeracji sektorów oraz rozpoznanie początku i końca sektora. Informacje te znajdują się przed i za obszarem danych każdego sektora. Suma tych obszarów stanowi o różnicy między pojemnością dysku przed sformatowaniem i po sformatowaniu. Takie informacje jak nagłówki sektorów, przerwy między sektorami i inne, nanoszone są na dysk niezależnie od systemu operacyjnego, systemu plików czy samych plików przechowywanych na dysku. Na przykład dyskietka o pojemności 4 MB (3,5 cala) po sformatowaniu ma pojemność 2,88 MB, na dyskietce o pojemności 2 MB zostaje 1,44 MB wolnej pamięci, a starsze twarde dyski o pojemności 38 MB po sformatowaniu mają pojemność 32 MB. Współczesne dyski IDĘ lub SCSI są fabrycznie przeformatowane, dzięki czemu na opakowaniach podawana jest ich pojemność po sformatowaniu. Jednak nawet w takiej sytuacji, część pojemności dysku przeznaczona jest na zarządzanie danymi, a więc nie na ich przechowywanie. Mimo iż napisałem, że sektor ma wielkość 512 bajtów, stwierdzenie to jest technicznie fałszywe. Co prawda w każdym sektorze można zapisać 512 bajtów danych, lecz obszar ten stanowi jedynie część całkowitej pojemności. Każdy sektor zajmuje zwykle 571 bajtów, z czego jedynie 512 jest dostępne dla użytkownika. Rzeczywista liczba bajtów potrzebna do zawarcia wszystkich wymaganych informacji o sektorze może się zmieniać zależnie od typu dysku, lecz zwykle wynosi mniej więcej tyle. W kilku nowych typach dysków stosuje się zapis bez informacji dodatkowych, gdzie zbędne nagłówki sektorów są niemal zupełnie wyeliminowane. W dyskach takich prawie całe ścieżki zajmowane są przez dane. Pomocne może być porównanie sektora do strony książki. Każda strona zawiera tekst, lecz nie wypełnia on całej jej powierzchni; każda strona ma cztery marginesy: górny, dolny, lewy i prawy. Takie informacje jak tytuł rozdziału (numer ścieżki), numer strony (sektora) umieszczane są na marginesach. Obszar „marginesu" sektora jest tworzony i zapisywany podczas procesu formatowania dysku. Podczas formatowania zapisywane są również dane wypełniające sektory. Po sformatowaniu dysku informacje znajdujące się w obszarze danych można zmieniać dowolnie za pomocą zwykłego zapisywania. Informacje w „nagłówku" i „stopce" sektora mogą ulec zmianie jedynie podczas formatowania dysku. Każdy sektor ma część zwaną prefiksem (przedrostkiem) lub nagłówkiem, która wyznacza początek sektora i określa jego numer, oraz część zwaną sufiksem (przyrostkiem) lub stopką, która zawiera sumę kontrolną (pomagającą zachować spójność przechowywanych informacji). Oprócz tego każdy sektor zawiera 512 bajtów danych. Podczas fizycznego (niskopoziomowego) formatowania dysku, bajty danych zwykle są ustawiane na określoną wartość, np. F6h w kodzie szesnastkowym (formatowanie niskopoziomowe opisane jest w dalszej części rozdziału). W wielu przypadkach zapisywane są określone wzory bajtów, uważane za trudne do zapisania, które wykorzystuje się do usuwania pozostałości poprzednio istniejących sektorów. Oprócz przerw w sektorach, istnieją również przerwy między sektorami i między ścieżkami; żadnej z tych przerw nie można wykorzystać do przechowywania informacji. Prefiks, sufiks oraz przerwy po zsumowaniu dają różnicę między pojemnością dysku przed sformatowaniem i po sformatowaniu.
W tabeli 14.5 znajduje się opis formatu każdej ścieżki i sektora typowego dysku twardego zwierającego 17 sektorów na ścieżce. W tabeli tej została opisana ścieżka dysku twardego zawierająca 17 sektorów. Pojemność ta była typowa w połowie lat 80-tych, współczesne dyski twarde mogą pomieścić ponad 150 sektorów na ścieżce, a ich format może odbiegać od przytoczonego przykładu. Jak można łatwo zauważyć, możliwy do wykorzystania obszar ścieżki jest o około 16% mniejszy od jej pojemności sprzed sformatowania. Podany przykład odpowiada większości dysków, choć może się od nich różnić szczegółami Tabela 14.5 . Format typowego dysku z 17 ścieżkami i 17 sektorami na ścieżce Poniższe dane sektorów (miedzy grubymi liniami tabeli) są powtarzane 17 razy n ścieżkach zakodowanych metoda, MFM. Bajty
Nazwa
Opis
16 Przerwa Wszystkie bajty równe 4Eh na początku ścieżki po po sygnale indeksowym znaczniku indeksu. 13 ID VFO LOCK (ustawienie Wszystkie równe OOh, synchronizują VFO generatora przestrajalnego) (generator) dla identyfikatora sektora. l
Bajt synchronizujący
1 Znacznik adresu dentyfi kacy j n ego. 2 Numer cylindra Numer głowicy 1
Alh, powiadamia kontroler o nadchodzących danych. FEh, informuje o znajdujących się po nim danych pola i
Wartość określająca położenie mechanizmu z głowicami. l Wartość określająca wybraną głowicę.
Numer sektora
Wartość określająca sektor.
2 Suma kontrolna CRC (cykliczna Wartość umożliwiająca weryfikację informacji kontrola nadmiarowości) identyfikacyjnych. 3 Przerwa na włączenie zapisu OOh zapisywane podczas formatowania w celu oddzielenia identyfikatora od danych. 13 "
Synchronizacja generatora dla danych.
l
Bajt synchronizujący
l
Znacznik adresu
512 Dane
Wszystkie OOh, synchronizuje VFO (generator) (VFO)
Alh, powiadamia kontroler o nadchodzących danych. F8h, informuje o znajdujących się po nim danych użytkownika. Obszar danych użytkownika.
2 Suma kontrolna CRC (cykliczna Wartość umożliwiająca weryfikację danych. kontrola nadmiarowości) 3 Przerwa na wyłączenie zapisu OOh, zapisywane podczas uaktualnienia danych w celu ich oddzielenia. 15 Przerwa między rekordami OOh, bufor na zmiany prędkości obrotowej. 693 Przerwa poprzedzająca indeks 4Eh na końcu ścieżki, przed impulsem indeksowym. 571 Całkowita liczba bajtów w sektorze 512 Liczba bajtów danych w sektorze 10 416 Całkowita liczba bajtów na ścieżce 8 704 Liczba bajtów danych na ścieżce
Przerwa po sygnale indeksowym zapewnia czas potrzebny na przełączenie głowic, dzięki czemu przy przechodzeniu ze ścieżki na ścieżkę można odczytywać kolejne sektory bez konieczności oczekiwania na dodatkowy obrót dysku. W niektórych dyskach czas ten jest niewystarczający; w ich przypadku dodatkowy czas można uzyskać przesuwając sektory na różnych ścieżkach, dzięki czemu można opóźnić moment nadejścia pierwszego sektora. W niektórych napędach odstęp nie zapewnia wystarczająco długiego czasu na ruch głowic. W takim przypadku istnieje możliwość zyskania dodatkowego czasu przez przesunięcie sektorów na kolejnych ścieżkach o pewien kąt, tak że moment przybycia pierwszego sektora jest opóźniony. Innymi słowy, w procesie formatowania niskopoziomowego następuje przesunięcie numeracji sektorów, tak że zamiast tych samych numerów sektorów znajdujących się na kolejnych ścieżkach jeden pod drugim, sektor 9 na ścieżce może znajdować się nad sektorem 8 na ścieżce następnej, pod którym z kolei znajduje się sektor 7 itd. Optymalna wartość przesunięcia sektorów zależy od prędkości obrotowej dysku oraz od czasu skoku głowicy Swego czasu przesunięcie było parametrem, który mogłeś samodzielnie wybrać podczas niskopoziomowego formatowania. Obecne dyski IDĘ i SCSI są już fabrycznie sformatowane niskopoziomowo, z dobranymi optymalnymi wartościami przesunięć Dane identyfikatora sektora składają się z pól określających numer cylindra, głowicy i sektora oraz z pola CRC, umożliwiającego weryfikację tych danych. Większość kontrolerów wykorzystuje bit nr 7 pola numeru głowicy do oznaczenia uszkodzonego sektora podczas formatowania niskopoziomowego lub analizy nośnika. Zasada ta nie jest jednak powszechnie obowiązująca; część kontrolerów wykorzystuje inne metody oznaczania uszkodzonych sektorów. Zwykle jednak wykorzystuje się do tego jedno z pól identyfikacyjnych. Przerwa na włączenie zapisu (Write Tum On Gap) znajduje się po bajtach CRC (cyklicznej kontroli nadmiarowości) i zapewnia obszar umożliwiający właściwe zapisanie danych użytkownika oraz czas na przeanalizowanie wartości CRC identyfikatora. Pole danych użytkownika zawiera wszystkie 512 bajtów sektora. Za tym polem znajdują się bajty kontrolne CRC służące do weryfikacji danych. Choć w wielu kontrolerach wykorzystuje się dwubajtowy kod CRC, stosowany może być również dłuższy kod - kod korekcji błędów (ECC-Error Correction Code), wymagający zapisywania więcej niż dwóch bajtów CRC. Zapisane tu dane ECC dają możliwość naprawy błędu odczytu pola danych oraz sygnalizacji tego błędu. Możliwość korekcji i detekcji błędu zależy od kontrolera i wybranego kodu ECC. Przerwa na wyłączenie zapisu (Write-Off Gap) pozwala na pełne przeanalizowanie bajtów ECC (lub CRC). Przerwa między zapisami (Inter-Record Gap) pozwala na skompensowanie wahań prędkości obrotowej dysku. Może się zdarzyć, że ścieżka zostanie sformatowana przy nieco mniejszej prędkości obrotowej i uaktualniona przy prędkości wyższej niż zwykle. W takiej sytuacji omawiana przerwa chroni przed przypadkowym skasowaniem danych z następnego sektora. Rzeczywista wielkość obszaru chronionego zmienia się zależnie od szybkości obrotowej dysku podczas formatowania i zapisu danych na ścieżce. Przerwa poprzedzająca indeks (Pre-Index Gap) zapewnia margines tolerancji szybkości obrotowej przy zapisie całej ścieżki. Wielkość tej przerwy zależy od szybkości obrotowej i tolerancji częstotliwości transferu danych podczas formatowania ścieżki
Informacje prefiksu sektora są niezwykle ważne, gdyż zawierają dane o numerze cylindra, głowicy i sektora. Wszystkie te informacje, poza polem danych, jego bajtami CRC i przerwą na wyłączenie zapisu, zapisywane są wyłącznie podczas formatowania niskopoziomowego. W typowych twardych dyskach bez serwomechanizmu (wykorzystujących silnik krokowy), gdzie wysoka temperatura może spowodować ustawienie głowic nad nieprawidłową ścieżką, dane zapisane w 512-bajtowym obszarze sektora wraz z bajtami CRC mogą nie znaleźć się dokładnie w jednej linii z informacjami nagłówka. Sytuacja ta może ostatecznie doprowadzić do wystąpienia błędu odczytu lub zapisu, objawiającego się komunikatem typu „Anuluj, powtórz, ignoruj". Często błąd ten można naprawić powtarzając formatowanie niskopoziomowe, czyli formatowanie LLF (Łów Level Format-ting) dysku; w procesie tym nagłówki i dane są ponownie zapisywane wspólnie w bieżącym położeniu ścieżki. Następnie na dysku można odtworzyć dane, których obszary będą tym razem ułożone równo z nowymi nagłówkami sektorów. Formatowanie dysku Zwykle możliwe jest wykonanie dwóch rodzajów formatowania: • fizyczne, czyli niskopoziomowe, • logiczne, czyli wysokopoziomowe. Podczas formatowania dyskietki, polecenie FORMAT systemu DOS wykonuje oba rodzaje formatowania jednocześnie. Jednak aby sformatować dysk twardy, należy te operacje wykonać oddzielnie. Co więcej, między operacjami formatowania należy wykonać trzecią operację, podczas której zapisywane są informacje dotyczące partycji. Partycjonowanie jest konieczne z tego względu, że dyski są projektowane do pracy z różnymi systemami operacyjnymi. Dzieląc format fizyczny zawsze tą samą metodą, niezależną od systemu operacyjnego i formatu wysokopoziomowego (który może być różny dla różnych systemów operacyjnych), umożliwia się pracę jednego dysku pod kontrolą różnych systemów operacyjnych lub jednego systemu operacyjnego, traktującego dysk twardy jako kilka dysków logicznych. Dysk logiczny jest obiektem, któremu system operacyjny przypisuje literę dysku. W związku z tym formatowanie dysku twardego odbywa się w trzech krokach: 1. formatowanie niskopoziomowe (LLF), 2. partycjonowanie, 3. formatowanie wysokopoziomowe (HLF). Podczas formatowania niskopoziomowego ścieżki dysku są dzielone na określoną liczbę sektorów. Nanoszone są informacje nagłówka i zakończenia sektora, a także przerwy między sektorami i ścieżkami. Obszar danych każdego sektora wypełniany jest bajtami testowymi lub początkowymi. W przypadku dysków elastycznych liczba sektorów na każdej ścieżce zależy od typu dyskietki i napędu; w przypadku dysków twardych liczba ta jest uzależniona od samego dysku i interfejsu kontrolera.
Tabela 14.6. Informacje owiązane ze strefami występującymi w dyskach Ouantum Fireball 3.8 GB
Strefa
Ścieżek strefie
0 l 2 3 4
454 454 454 454 454
232 229 225 225 214
92,9 91,7 90,4 89,2 85.8
5
454
205
82,1
6
454
195
77,9
7 8
454 454
185 180
74,4 71,4
9
454
170
68.2
10
454
162
65,2
11
454
153
61,7
12
454
142
57,4
13
454
135
53,7
14
454
122
49,5
w
Sektorów ścieżkę
na
Prędkość transmisji danych [Mbit/s]
Tak więc dzięki zastosowaniu stref każdy talerz dysku może pomieścić l 259 396 sektorów, czyli 644 810 752 bajtów (614,94 MB). Bez podziału na strefy, ilość sektorów na ścieżkę na całym talerzu byłaby ograniczona do 122, co dawałoby liczbę 830 820 sektorów na talerz, które mogłyby pomieścić 425 379 840 bajtów (405,67 MB). Dzięki zastosowaniu technologii Zoned Bit Recording, w przypadku tego modelu udało się zyskać większą o ponad 51,59% objętość dysku. Zwróć także uwagę na różnice w prędkości transmisji w poszczególnych strefach. Ścieżki w najbardziej zewnętrznej strefie (0) utrzymują prędkość transmisji 92,9 Mbit/s, która jest o 87,67% większa niż prędkość przesyłu (49,5 Mbit/s) ścieżek w strefie wewnętrznej (14). Właśnie z tego powodu notuje się tak duże różnice w wynikach podawanych przez różne programy do sprawdzania szybkości dysku. Program odczytujący lub zapisujący pliki na zewnętrznych ścieżkach naturalnie poda znacznie lepsze wyniki niż program operujący głównie na ścieżkach wewnętrznych. Możesz odnieść wrażenie, że dysk działa wolniej, podczas gdy chodzi jedynie o sposób uzyskania wyników z innego pomiaru, w którym dane pochodziły z bardziej zewnętrznych stref.
Występujące dawniej dyski, wymagające osobnego kontrolera, nie korzystały z technologii Zoned Bit Recording, ponieważ nie było standardowego sposobu przekazania informacji o strefach z dysku do kontrolera. Jednak w przypadku dysków SCSI i IDĘ istnieje możliwość sformatowania poszczególnych ścieżek przy różnej ilości sektorów, a to dzięki temu, że takie dyski posiadają kontroler wbudowany w całość. Wbudowane kontrolery takich dysków posiadają pełne możliwości zastosowania algorytmu podziału na strefy i potrafią dokonać translacji fizycznych numerów cylindrów, głowic i sektorów na ich numery logiczne, tak że z punktu widzenia aplikacji dysk posiada tę samą ilość sektorów na każdej ścieżce. Ponieważ BIOS komputerów osobistych toleruje jedynie stałą ilość sektorów na ścieżce na całym dysku, dyski podzielone na strefy muszą „oszukiwać" BIOS stosując wewnętrzne schematy translacji adresów. Dyski z oddzielnymi kontrolerami nigdy nie obsługiwały zapisywania strefowego, ponieważ nie istniał standard przesyłania informacji o strefach z dysku do kontrolera. W przypadku dysków SCSI i IDĘ formatowanie każdej ścieżki na inną liczbę sektorów stało się możliwe dzięki temu, że każdy taki dysk ma wbudowany kontroler. Wbudowane kontrolery są w pełni przystosowane do obsługi odpowiedniego zapisywania strefowego. Kontrolery takie również przekształcają fizyczne numery cylindra, głowicy i sektora w taki sposób, aby dla urządzeń zewnętrznych dysk miał stałą liczbę sektorów na każdej ścieżce. BIOS komputerów PC był projektowany do obsługi jednakowej liczby sektorów na każdej ścieżce dysku, co oznacza, że dyski ze strefami muszą zawsze działać w trybie translacji sektorów. Wprowadzenie nagrywania strefowego umożliwiło producentom zwiększenie pojemności dysków twardych o 20 do 50% w stosunku do rozwiązania poprzedniego, które wykorzystywało stałą liczbę sektorów na ścieżce. Dziś praktycznie wszystkie dyski IDĘ oraz SCSI stosują metodę zapisu strefowego.
Partycjonowanie Partycjonowanie umożliwia podział dysku na obszary zwane partycjami, mogące przechowywać pliki określonego systemu operacyjnego. We współczesnych komputerach PC wykorzystuje się różne systemy plików. Oto cztery najpopularniejsze: • FAT (tablica alokacji plików). Standardowy system plików systemów: DOS, Windows 95 (wersje sprzed OSR2), OS/2 i Windows NT. Partycje FAT obsługują pliki z nazwami o długości do 11 znaków (8 znaków nazwy + 3 znaki rozszerzenia) w systemie DOS i do 255 znaków w systemie Windows 95, NT 4.0 lub nowszym. W standardowym systemie FAT do identyfikacji jednostek alokacji wykorzystuje się liczby 12- lub 16-bitowe, umożliwiające uzyskanie maksymalnej pojemności 2 GB. • FAT32 (32-bitowa tablica alokacji plików). Opcjonalny system plików systemu operacyjnego Windows 95 OSR2 (zwanego również OEM Service Release 2 lub Windows 95B) i jego wersji późniejszych. W systemie FAT32 jednostki alokacji plików są przechowywane w postaci liczb 32-bitowych, co umożliwia obsługę partycji o pojemności 2 TB lub 2 048 GB. W przyszłości należy się spodziewać dodania obsługi systemu FAT32 do Windows NT. • HPFS (system plików wysokiej wydajności). System plików dostępny jedynie w systemie OS/2 i Windows NT 3.51 lub wcześniejszym. Aplikacje DOS-owe mogą uzyskać dostęp do partycji HPFS, jeśli pracują pod kontrolą OS/2, Windows NT lub w środowisku sieciowym, natomiast bezpośrednio z systemu DOS - nie mogą. Nazwy plików w systemie HPFS mogą mieć długość do 256 znaków, a wielkość partycji jest ograniczona do 8 GB
• NTFS (system plików środowiska Windows NT). System plików zbliżony do stosowanego w UNIX-ie, dostępny jedynie dla Windows NT. System DOS nie może uzyskać dostępu do takiej partycji, lecz aplikacje DOS pracujące pod Windows NT lub w sieci - mogą. Nazwy plików mogą mieć do 256 znaków, a wielkość partycji jest ograniczona do 8 GB. Z powyższych czterech systemów plików, zdecydowanie najpopularniejszym (i najbardziej zalecanym) jest FAT. Podstawowym problemem związanym z oryginalnym systemem FAT 16 jest podział przestrzeni dysku na grupy sektorów, zwane jednostkami alokacji lub klastrami. Ponieważ całkowita liczba klastrów nie może przekroczyć 65 536 (największa liczba 16-bitowa), większe dyski wymagają podziału na większe klastry. Zbyt duże klastry mogą okazać się nieefektywne do zarządzania obszarami dysku. FAT32 rozwiązuje ten problem umożliwiając podział dysku na ponad 4 miliardy klastrów, co pozwala na zmniejszenie ich wielkości. Większość partycji FAT32 i NTFS ma klastry o wielkości 4 kB. Począwszy od systemu DOS 4.0, termin klasier jest używany zamiennie z określeniem jednostka alokacji. Nowy termin jest równie poprawny jak poprzedni, ponieważ pojedynczy klaster jest najmniejszą jednostką dysku, jaką DOS może przydzielić (alokować) podczas zapisu pliku. Klaster może składać się z jednego lub więcej sektorów i choć spotyka się klastry jednosektorowe (zwłaszcza na dyskietkach 1,2 MB i 1,44 MB), zwykle w klastrze znajduje się ich kilka. Większe klastry zmniejszają rozmiar tablicy FAT i czas potrzebny na jej obsługę, umożliwiając szybszą pracę systemu DOS zarządzającego mniejszą liczbą jednostek alokacji. Kosztem tego rozwiązania są straty miejsca na dysku. Ponieważ DOS i Windows zarządzają jedynie całymi klastrami, każdy plik zajmuje miejsce o wielkości będącej wielokrotnością rozmiaru klastra. Mniejsze klastry mają niewielkie obszary martwe (nie wykorzystane przestrzenie między rzeczywistym końcem pliku a końcem klastra). Przy większych klastrach nie wykorzystywane obszary również się zwiększają. W przypadku dysków twardych wielkość klastra zmienia się wraz z wielkością partycji. W tabeli 14.7 znajdują się standardowe wielkości klastrów ustawiane przez program FDISK na podstawie wielkości partycji. W większości przypadków podane wielkości klastrów wybierane przez polecenie FORMAT są klastrami o najmniejszym dostępnym dla danej partycji rozmiarze. Dlatego sektory o wielkości 8 kB są najmniejszymi możliwymi w partycji większej od 256 MB. Warto zauważyć, że program FDISK tworzy FAT o liczbach 12-bitowych, jeśli partycja ma 16 MB, a o 16-bitowych, gdy jej pojemność jest większa, o ile - oczywiście - nie został włączony tryb FAT32 w systemie Windows 95 OSR2 lub późniejszym. Skutkiem formatowania dużych partycji przy użyciu klastrów o dużym rozmiarze jest utrata znacznej części przestrzeni na dysku w wyniku zajęcia jej przez martwe obszary nie wykorzystanych części klastrów. Przeciętną wielkością martwego obszaru jest połowa długości ostatniego klastra pliku. Aby obliczyć wielkość martwego obszaru na całym dysku, można posłużyć się następującym wzorem: obszar martwy = liczba plików * wielkość klastra /2
Tabela 14.7. Standardowe wielkości k/astrów Wielkość partycji dysku twardego Wielkość klastra (jednostki alokacji) Typ FAT 8 sektorów
lub 4 096 bajtów (4 kB)
12-bitowy
4 sektory
lub 2 048 bajtów (2 kB)
16-bitowy
8 sektorów
lub 4 096 bajtów (4 kB)
16-bitowy
16 sektorów
lub 8 192 bajty (8 kB)
16-bitowy
32 sektory
lub 16 384 bajty (16 kB)
16-bitowy
64 sektory
lub 32 768 bajtów (32 kB)
l sektor
lub 512 bajtów
8 sektorów
lub 4 096 bajtów (4 kB)
32-bitowy
16 sektorów
lub 8 192 bajty (8 kB)
32-bitowy
32 sektory
lub 16 384 bajty (l 6 kB)
32-bitowy
64 sektory
lub 32 768 bajtów (32 kB)
16-bitowy 32-bitowy
32-bitowy
Partycja dysku o pojemności od l do 2 GB, wykorzystująca system FAT16 (klastry o wielkości 32 kB), zawierająca 10 000 plików traci około 16 kB na każdym pliku, czyli 160 000 kB (160 MB) pojemności (wynik działania 10 000*32 kB/2). Gdyby podzielić taką partycję na dwie mniejsze, o pojemności do l GB każda, wielkość klastra zmniejszyłaby się o połowę, podobnie jak całkowity obszar martwy. W ten sposób można odzyskać 80 MB obszaru dysku. Jedyną ujemną stroną tego rozwiązania jest pewna niewygoda związana z obsługą dwóch partycji zamiast jednej. Warto pamiętać, że jedynym sposobem, w jaki można kontrolować wielkość klastra (jednostki alokacji) w systemie plików FAT16, jest zmiana wielkości partycji. Gdyby sformatować dysk w systemie FAT32, wielkość traconych obszarów zmniejszyłaby się do 2 kB na plik, co dałoby w sumie jedynie 20 MB strat! Innymi słowy, przekształcanie partycji na FAT32 w takiej sytuacji, jak przedstawiona w przykładzie, pozwoliłoby uzyskać dodatkowe 140 MB przestrzeni na dysku. Systemy plików NTFS, HPFS i FAT32 drastycznie zmniejszają rozmiar martwych obszarów, lecz jednocześnie zwiększają czas potrzebny na zarządzanie plikami, co jest wywołane większą liczbą jednostek alokacji. Pomimo problemów z martwymi obszarami, podstawowy system plików FAT jest wciąż najbardziej zalecany ze względu na kompatybilność. Wszystkie systemy operacyjne potrafią obsługiwać partycję FAT, a struktura plików i procedury odzyskiwania danych zostały już dobrze poznane. Warto również zaznaczyć, że odzyskiwanie utraconych danych może się okazać bardzo trudne lub niemożliwe w przypadku systemów HPFS i NTFS; w systemach tych zatem regularne tworzenie kopii zapasowych plików jest tym bardziej konieczne. Podczas partycjonowania, bez względu na wybrany system plików, program partycjonujący zapisuje w pierwszym sektorze specjalny program startowy oraz tablicę partycji, tworząc MBS (Master Boot Sector - główny sektor startowy). Ponieważ pojęcia sektor i rekord są czasem stosowane zamiennie, sektor ten może również nosić nazwę MBR (Master Boot Record - główny rekord startowy).
Formatowanie wysokopoziomowe Podczas formatowania wysokopoziomowego system operacyjny (np. DOS, OS/2 lub Windows) zapisuje struktury niezbędne do zarządzania plikami i danymi. Partycje FAT na każdym dysku logicznym mają VBS (Volume Boot Sector - sektor startowy partycji), tablicę alokacji plików (FAT) oraz główny katalog dysku. Struktury danych (opisane szczegółowo w rozdziale 22. „Programowe i sprzętowe narzędzia diagnostyczne") umożliwiają systemowi operacyjnemu zarządzanie obszarami dysku, śledzenie położenia plików, a nawet oznaczanie uszkodzonych obszarów, tak aby nie powodowały one problemów. Formatowanie wysokopoziomowe nie jest w rzeczywistości formatowaniem, lecz tylko tworzeniem tablic zawartości dysku. Podczas formatowania niskopoziomowego, które jest rzeczywistym formatowaniem, na dysku zapisywane są ścieżki i sektory. Jak już zostało wspomniane, polecenie FORMAT systemu DOS może posłużyć zarówno do niskopoziomowego, jak i wysokopoziomowego formatowania dyskietek; w przypadku dysków twardych polecenie to wykonuje jedynie formatowanie wysokopoziomowe. Niskopoziomowe formatowanie dysku twardego wymaga specjalnego programu, dostarczanego zwykle przez producenta dysku. Podstawowe składniki dysku twardego Na rynku można spotkać wiele różnych typów dysków twardych, lecz wszystkie one mają bardzo zbliżoną konstrukcję mechaniczną. Pewne różnice mogą występować w budowie poszczególnych elementów (i jakości ich wykonania), lecz charakterystyki pracy tych elementów są bardzo zbliżone. Poniżej wymieniono typowe składniki dysku twardego (przedstawione na rys. 14.3): • talerze dysku, • głowice odczytująco-zapisujące, • mechanizm głowic, • silnik napędowy talerzy, • płytka logiczna dysku, • złącza i przewody, • elementy konfiguracyjne (zworki lub przełączniki), • płyta czołowa (opcjonalnie). Talerze, ich silnik napędowy, głowice oraz ich mechanizmy zamknięte są w specjalnej komorze, nazywanej zespołem głowic dysków lub zespołem HDA (skrót od ang. Head Disk Assembly). Zespół HDA jest zwykle traktowany jako pojedynczy element i bardzo rzadko jest otwierany. Części znajdujące się na zewnątrz HDA, takie jak płytki elektroniczne, płyta czołowa, elementy montażowe i konfiguracyjne, mogą być wymontowywane z napędu dysku, natomiast zespołu głowic nie powinno się demontować!
Rysunek 14.3. Składniki dysku twardego
Talerze dysku twardego (dyski) Typowy dysk twardy ma jeden lub więcej talerzy (dysków). Dyski twarde oferowane z komputerami PC przyjmowały różne formy i wielkości. Najczęściej fizyczną wielkość napędu wyraża się średnicą jego talerzy. Obecnie w komputerach osobistych zwykle stosuje się wymienione poniżej rozmiary talerzy dysków twardych: • 5,25 cala (w rzeczywistości 130 mm, czyli 5,12 cala), • 3,5 cala (w rzeczywistości 95 mm, czyli 3,74 cala), • 2,5 cala, • l,8 cala. Dostępne są również większe dyski twarde, o średnicy talerzy 8, 14 lub więcej cali, lecz zwykle nie kojarzy się ich z systemami PC. We współczesnych komputerach osobistych lub przenośnych najczęściej stosuje się dyski 3,5-calowe, a w komputerach typu laptop lub notebook - dyski 2,5-calowe oraz mniejsze. Te małe urządzenia mogą nieraz wprawić w zdumienie, osiągając pojemności ponad l GB (spodziewa się, że do roku 2000 ich pojemności osiągną rząd 20 GB). Proszę sobie tylko wyobrazić notebooka z dyskiem 20 GB. Komputery takie pojawią się wcześniej, niż wielu z nas się tego spodziewa! Z powodu małych rozmiarów, dyski, o których mowa, są bardzo wytrzymałe i mogą efektywnie pracować w warunkach, które doprowadziłyby do zniszczenia większość dysków twardych wyprodukowanych kilka lat temu.
Większość dysków twardych ma dwa lub więcej talerzy. Jednak w mniejszych dyskach starcza miejsca tylko na jeden talerz. Liczba możliwych do zastosowania talerzy jest bowiem ograniczona fizyczną wysokością dysku. Jak do tej pory, największą liczbą talerzy w dysku 3,5-calowym jest 11 Talerze zwykle wykonuje się ze stopów aluminium, dających odpowiednią wytrzymałość i małą wagę. Wraz z dążeniem do coraz wyższych gęstości w coraz mniejszych dyskach, w wielu napędach zaczęto stosować szkło (a raczej kompozyty szklano-ceramiczne). Jednym z takich materiałów jest MemCor, produkowany przez firmę Dow Corning Corporation. MemCor jest kompozytem szkła z dodatkami ceramicznymi, dzięki którym uzyskuje on dużo wyższą wytrzymałość na pęknięcia niż czyste szkło. Wytrzymałość w ten sposób produkowanych talerzy szklanych jest większa od wytrzymałości konwencjonalnych dysków aluminiowych, dzięki czemu mogą być one ponad półtora rażą cieńsze. Talerze szklane są również znacznie bardziej stabilne termicznie od aluminiowych, co oznacza, że nie rozszerzają się ani nie kurczą w znaczny sposób wraz ze zmianą temperatury. Wielu producentów dysków twardych, w tym Seagate, Toshiba, Areał Technology, Maxtor czy Hewlett-Packard już dziś wykorzystuje talerze szklane lub szklanoceramiczne. W ciągu najbliższych kilku lat powinny one wyprzeć talerze aluminiowe zwłaszcza w wysokowydajnych dyskach 2,5- i 3,5-calowych.
Nośnik informacji Niezależnie od rodzaju materiału, z którego talerze są wykonane, pokrywane są one zawsze cienką warstwą magnetyzującego się materiału nazywanego nośnikiem, za pomocą którego przechowywane są informacje magnetyczne. Na talerzach dysków twardych można spotkać dwa rodzaje nośnika: • nośnik z tlenków metali, • nośnik cienkowarstwowy. Nośnik z tlenków metali jest wykonany z różnych materiałów, z tlenkiem żelaza jako składnikiem aktywnym. Warstwa magnetyczna tworzona jest przez pokrycie aluminiowego talerza mieszaniną zawierającą cząstki tlenku żelaza. Substancja ta jest nanoszona na powierzchnię talerza w czasie, gdy obraca się on z dużą prędkością; siły odśrodkowe wymuszają przepływ materiału ze środka talerza na jego brzeg, tworząc równomierną warstwę nośnika magnetycznego. Następnie powierzchnia talerza jest utwardzana i polerowana. W końcu nanosi się warstwę oleju chroniącego i smarującego powierzchnię, a następnie poleruje się ją na gładko. Warstwa nośnika magnetycznego ma zwykle grubość 30 milionowych cala. Talerze pokryte nośnikami z tlenków metali mają kolor brązowy lub bursztynowy. Wraz z rosnącymi gęstościami zapisu potrzebny był coraz cieńszy i dokładniej uformowany nośnik. W związku z rosnącymi pojemnościami napędów, możliwości nośnika z tlenków metali przestały w pewnym momencie wystarczać. Ponieważ nośnik taki jest bardzo miękki, wykorzystujące go dyski są bardzo podatne na zniszczenia wynikające z uderzeń głowic, wywołanych nieodpowiednim traktowaniem pracującego dysku. Większość starszych dysków, zwłaszcza tańszych modeli, miała na talerzach nośnik z tlenków metali. Nośnik ten jest stosowany od 1955 roku i pozostawał w użyciu głównie ze względu na niskie koszty produkcji oraz prostą technologię jego obsługi. Obecnie jednak ten typ nośnika nie znajduje prawie w ogóle zastosowania
Nośnik cienkowarstwowy jest cieńszy, twardszy i lepiej uformowany od nośnika z tlenków metali. Ten typ nośnika został opracowany z myślą o wysokich osiągach i zastosowaniu w dyskach głowic nowej generacji, które unoszą się znacznie bliżej nośnika, co w efekcie pozwala na uzyskanie większych gęstości. Początkowo nośnik ten był stosowany jedynie w dyskach o wysokiej pojemności lub o podwyższonej jakości, lecz obecnie jest stosowany niemal we wszystkich twardych dyskach. Nazwa „cienkowarstwowy" jest bardzo trafna. Pokrycie talerza jest znacznie cieńsze niż w przypadku nośnika z tlenków metali. Nośnik cienkowarstwowy jest również nazywany nośnikiem powlekanym lub napylanym, zależnie od procesów wykorzystywanych do umieszczenia na talerzach cienkiej warstwy nośnika. Nośnik cienkowarstwowy powlekany powstaje przez umieszczenie materiału na dysku przy wykorzystaniu techniki powlekania galwanicznego, przypominającej sposób chromowania zderzaków samochodu. Następnie aluminiowe talerze przechodzą szereg kąpieli chemicznych, mających na celu pokrycie ich powierzchni materiału kilkoma warstwami metalicznymi. Warstwę nośnika tworzy stop kobaltu o grubości około l milionowej części centymetra. Nośnik cienkowarstwowy napylany powstaje przez pokrycie powierzchni talerza warstwą fosforanu niklu, a następnie naniesienie warstwy magnetycznej ze stopu kobaltu przy pomocy ciągłego procesu próżniowego, nazywanego napylaniem. W ten sposób nanoszone są warstwy magnetyczne o grubości l lub 2 milionowych cala, podobnie jak w przemyśle półprzewodnikowym pokrywa się warstwą metaliczną płytki krzemowe. Ta sama technika jest ponownie wykorzystana do pokrycia dysku bardzo twardą warstwa ochronną z węgla o grubości l milionowej cala. Konieczność stosowania niemal idealnej próżni powoduje, że napylanie jest najbardziej kosztownym z procesów tu opisanych. Na powierzchnię talerza napylona zostaje warstwa magnetyczna o grubości 2 milionowych części centymetra. Ponieważ powierzchnia ta jest bardzo gładka, głowica dysku może unosić się znacznie bliżej nośnika, niż było to poprzednio możliwe - w odległości rzędu 8 milionowych części centymetra. Gdy głowica znajduje się bliżej talerza, można zwiększyć gęstość zmian pola magnetycznego, zwiększając w ten sposób pojemność dysku. Dodatkowo zwiększenie natężenia pola magnetycznego podczas odczytu, wywołane mniejszą odległością głowicy od nośnika, daje większą amplitudę sygnału, poprawiającą stosunek sygnału do szumów. W rezultacie zarówno procesu napylania, jak i powlekania uzyskuje się bardzo cienką i twardą powierzchnię talerzy. Dzięki podwyższonej twardości nośnika, ma on większe szansę na przetrwanie zderzenia z głowicami przy wysokiej prędkości. W zasadzie nowoczesny nośnik cienkowarstwowy jest niemal zupełnie odporny na takie zderzenia. Dawniej stosowane pokrycia z tlenków metali są o wiele bardziej podatne na zarysowanie lub uszkodzenie. Gdyby otworzyć pokrywę dysku twardego, można byłoby zauważyć, że talerze pokryte nośnikiem cienkowarstwowym wyglądają jak srebrne powierzchnie luster. W procesie napylania otrzymuje się najbardziej doskonałą, najcieńszą i najtwardszą powierzchnię dysku, jaką można dziś uzyskiwać na skalę przemysłową. Nic dziwnego więc, że ten sposób zastąpił nanoszenie nośnika metodą powlekania. Dyski z nośnikiem cienkowarstwowym mają większą pojemność osiąganą na mniejszym obszarze, przy zmniejszonym ryzyku uszkodzenia w wyniku uderzenia głowic. A ponadto dyski takie zapewniają wiele lat bezawaryjnej pracy.
Głowice odczytujaco-zapisujące W twardym dysku zwykle stosuje się po jednej głowicy odczytująco-zapisującej na jedną stronę talerza; wszystkie głowice dysku są przymocowane do jednego ruchomego mechanizmu. Zatem wszystkie głowice poruszają się po dysku jednocześnie. Mechaniczna konstrukcja głowic odczytująco-zapisujących jest prosta. Każda głowica zamontowana jest na końcu sprężynującego ramienia, dociskającego głowicę do talerza. Niewiele osób zdaje sobie sprawę, że każdy talerz dysku jest właściwie „ściskany" od dołu i od góry przez głowice. Gdyby można było bezpiecznie otworzyć obudowę dysku twardego i podnieść głowicę nad powierzchnię talerza, po zwolnieniu „wskoczy" ona na swoją pierwotną pozycję przy talerzu. Podobnie zachowa się głowica znajdująca się pod talerzem. Na rysunku 14.4 widać typowy element mechanizmu głowic dysku twardego z cewką drgającą. Rysunek 14.4. Głowice odczytujaco-zapisujące z obrotowym elementem cewki drgającej
Gdy napęd nie pracuje, sprężyny dociskają głowice bezpośrednio do talerzy, lecz gdy dysk obraca się z pełną prędkością, pod głowicami powstaje ciśnienie utrzymujące je nad powierzchnią nośnika. Jeśli talerze obracają się z pełną prędkością, odległość między głowicami a powierzchnią nośnika wynosi od 8 do ponad 50 milionowych części centymetra. Na początku lat 60. stosowano głowice pracujące na wysokości 500-800 milionowych części centymetra. Obecnie produkowane głowice są projektowane do pracy na wysokości 8-12 milionowych centymetra nad powierzchnią dysku. Aby w przyszłych dyskach można było obsłużyć jeszcze większe gęstości, konieczne będzie dalsze zmniejszenie tej odległości. Oczekuje się, że przed końcem wieku odległość między głowicą a nośnikiem powinna osiągnąć 2 milionowe części centymetra.
Mała wielkość tych odstępów jest główną przyczyną, dla której nie powinno się otwierać dysku twardego poza środowiskiem o kontrolowanej czystości: każda cząsteczka kurzu, która dostanie się do mechanizmu, może spowodować nieprawidłowy odczyt danych przez głowice lub nawet uderzenie głowicy w talerz podczas jego obracania się z pełną szybkością. W pewnych warunkach zderzenie może spowodować zarysowanie głowicy lub talerza. Aby zapewnić czystość środowiska wewnątrz napędu, dysk twardy jest składany w pomieszczeniu o klasie czystości 100 lub większej. Podane określenie oznacza, że w stopie sześciennej powietrza (ok. 27 dm'') może się znajdować co najwyżej 100 cząstek o wielkości do 0,5 mikrona. Jedna osoba oddychająca w bezruchu emituje w ciągu minuty 500 takich cząstek! Opisywane pomieszczenia mają specjalne systemy filtracji, odprowadzające i odświeżające powietrze w sposób ciągły. Mechanizm dysku nie powinien być otwierany, o ile nie znajduje się w takim pomieszczeniu. Choć utrzymanie takiego środowiska wydaje się dosyć kosztowne, wiele firm produkuje niewielkie komory o wielkości stołu, sprzedawane w cenie jedynie kilku tysięcy dolarów. Niektóre z tych urządzeń mają postać komory rękawicowej; operator najpierw wkłada do niej dysk i potrzebne narzędzia, następnie zamyka komorę i włącza system filtracji. Wewnątrz skrzynki utrzymywane jest środowisko o wysokiej czystości, dzięki czemu operator może pracować nad dyskiem, posługując się zamontowanymi rękawicami. W innych odmianach czystych pomieszczeń, operator stoi przy stole chronionym kurtyną powietrza o wymuszonym obiegu, utrzymującą czystość na powierzchni stołu. Technik może wchodzić i wychodzić z czystego pomieszczenia przechodząc po prostu przez kurtyny powietrzne. Kurtyny te działają podobnie jak te znane z domów towarowych, a zapobiegające stratom ciepła zimą, kiedy klienci wychodzą z ogrzewanego budynku. Ponieważ wytworzenie czystego środowiska jest bardzo kosztowne, niewiele firm poza producentami jest przygotowanych do serwisowania dysków twardych.
Konstrukcja głowicy odczytująco - zapisującej Ciągłej ewolucji podlega również konstrukcja głowicy odczytująco-zapisującej. Pierwsze głowice były zbudowane z żelaznego rdzenia i uzwojeń (elektromagnesów). Według dzisiejszych standardów, konstrukcja taka miała ogromne rozmiary i pracowała przy bardzo niskich gęstościach zapisu. Pierwsze proste głowice z rdzeniem ferrytowym ewoluowały latami, by osiągnąć rozmaitość typów i technologii dostępnych obecnie. W tej części rozdziału opisano różne typy głowic spotykanych w dyskach twardych komputerów PC oraz ich zastosowania, a także zalety i wady każdego z nich W dyskach twardych wykorzystywane są cztery typy głowic: • ferrytowe, • z metalem w szczelinie (MIG), • cienkowarstwowe (TF), • magnetorezystywne (M R).
Głowice ferrytowe Tradycyjny rodzaj konstrukcji, będącej rozwinięciem projektu zastosowanego pierwotni w napędzie IBM Winchester. Głowice ferrytowe miały rdzeń z tlenków żelaza owinięta uzwojeniami elektromagnetycznymi. Pole magnetyczne powstaje w nich po przepuszczeni prądu przez uzwojenia; pole to może być również indukowane przez pole magnetyczne zmieniające się w pobliżu uzwojeń. Proces ten daje głowicom pełną zdolność do odczyt i zapisu danych.
Głowice ferrytowe są większe i cięższe od głowic cienkowarstwowych przez co wymagają większych wysokości pracy zabezpieczających je przed kontaktem z powierzchnią dysku. Do pierwotnej (monolitycznej) konstrukcji głowicy wprowadzono wiele udoskonalę. Kompozytowa głowica ferrytowa ma mniejszy rdzeń ferrytowy, połączony ze szkłem i umieszczony w ceramicznej obudowie. Konstrukcja ta umożliwia zmniejszenie szczelin głowicy, co pozwala na uzyskanie większych gęstości. Głowice takie są mniej podatne na rozproszone pola magnetyczne od starszych głowic o budowie monolitycznej. W latach 80-tych głowice kompozytowe stosowane były w wielu tańszych dyskach, takie jak popularny Seagate ST-225. W miarę wzrostu popytu na większe pojemności, z: często stosować konkurencyjne głowice typu MIG oraz głowice cienkowarstwowe, kto praktycznie zupełnie wyparły głowice ferrytowe. Głowice ferrytowe nie mogą zapisywać na nośniku o wyższej koercji, wymaganym do uzyskania wysokiej gęstości, a ponadto mają słabą charakterystykę częstotliwościową oraz charakteryzują się wyższy poziomem szumów. Jedyną zaletą tego typu głowic jest ich najniższy, w porównań z innymi rodzajami głowic, koszt produkcji.
Głowice MIG Glowice typu MIG (skrót od ang. Metal in Gap - metal w szczelinie) są w istocie rozwinięciem głowicy ferrytowej. W głowicach MIG metal jest napylany na szczelinę głowic przy jej tylnej krawędzi. W ten sposób uzyskuje się większą odporność na nasycenia magnetyczne, co pozwala zwiększyć gęstość zapisu. Głowice typu MIG dają równi wyraźniejszy gradient pola magnetycznego, czego skutkiem są wyraźniejsze impuls Ponadto umożliwiają one wykorzystanie nośnika cienkowarstwowego o wyższej koncentracji oraz pracę bliżej powierzchni dysku. Dostępne są dwa rodzaje głowic MIG: jednostronne i dwustronne. Głowice jednostronne mają warstwę stopu magnetycznego umieszczoną wzdłuż tylnej krawędzi szczelin. Z kolei w głowicach dwustronnych warstwa ta znajduje się przy obu krawędzią szczeliny. Stop metalu jest nanoszony w procesie próżniowym, nazywanym napylaniem. Napylany materiał ma dwukrotnie większą zdolność do namagnesowania niż zwykły ferryt, co umożliwia zapis na nośniku cienkowarstwowym o wysokiej koercji, wymaganym do osiągnięcia wysokich gęstości. Głowice dwustronne mają jeszcze korzystniejsze właściwości komercyjne od głowic jednostronnych. Z powodu wzrostu możliwości, jaki został osiągnięty przez ulepszenia konstrukcyjne, głowice typu MIG były swego czasu najczęściej stosowanymi we wszystkich rodzajach dysków poza tymi o najwyższych pojemnościach. Jednak z powodu rynkowego popytu na coraz wyższe gęstości, głowice MIG zostały wyparte przez głowice cienkowarstwowe.
Głowice cienkowarstwowe Głowice TF (cienkowarstwowe) są produkowane w sposób zbliżony do technologii produkcji układów półprzewodnikowych, tj. przy wykorzystaniu procesu fotolitografii. W ten sposób, na jednej okrągłej płytce można uzyskać wiele tysięcy głowic. Stosowany proces produkcyjny umożliwia uzyskanie produktu o bardzo małych rozmiarach i bardzo wysokiej jakości. Głowice TF są niezwykle wąskie i mają szczelinę o kontrolowanej szerokości, powstałą przez napylanie twardego stopu aluminium. Ponieważ materiał ten całkowicie pokrywa szczelinę, jej obszar jest bardzo dobrze chroniony, a ryzyko uszkodzenia w wyniku kontaktu z nośnikiem spada do minimum. Rdzeń głowicy jest połączeniem stopów żelaza i niklu, o sile magnetycznej dwa, do czterech razy większej od głowicy z rdzeniem ferrytowym.
Głowice TF dają wyraźny impuls magnetyczny, co pozwala uzyskać bardzo duże gęstości zapisu. Ponieważ w głowicach tych nie ma tradycyjnych uzwojeń, głowice TF są lepiej zabezpieczone przed ich zmiennymi impedancjami (oporami pozornymi układów). Małe, lekkie głowice mogą się unosić znacznie bliżej nośnika niż głowice ferrytowe oraz głowice MIG; w niektórych modelach dysków wysokość tę obniżono do mniej niż 8 milionowych części centymetra. Ponieważ przy mniejszej wysokości wychwytywane przez głowice sygnały z talerzy są znacznie silniejsze, przyczynia się to do poprawy stosunku sygnału do szumów, czego skutkiem jest większa dokładność zarówno zapisu, jak i odczytu. Przy spotykanych obecnie wysokich gęstościach liniowych i gęstościach upakowania ścieżek, głowice ferrytowe nie byłyby w stanie odróżnić zapisanego sygnału od szumów tła. Stosowanie głowic TF pozwala również na gęstsze upakowanie talerzy dysku w napędzie. Do niedawna głowice TF były relatywnie drogie w porównaniu z wcześniejszymi rozwiązaniami, takimi jak MIG czy głowice ferrytowe. Jednak lepsze techniki produkcyjne i dążenie do coraz wyższych gęstości spowodowały upowszechnienie się głowic TF. Rozpowszechnienie się tej technologii spowodowało, że głowice TF stały się atrakcyjne cenowo, a nawet tańsze od głowic MIG. Głowice TF są obecnie wykorzystywane w większości dysków o wysokiej pojemności, zwłaszcza w modelach o małych gabarytach. Zajęły one miejsce głowic MIG jako najbardziej popularnego rozwiązania stosowanego w twardych dyskach. Producenci ciągle pracują nad polepszeniem parametrów głowic TF, co pozwala sądzić, że technologia ta pozostanie w użyciu przez dłuższy czas, zwłaszcza w podstawowych modelach dysków
Głowice magnetorezystywne Głowice MR (magnetorezystywne) są najnowszym osiągnięciem technologicznym. Wynalezione i wprowadzone przez IBM, stanowią rozwiązanie o najlepszych parametrach. Większość współczesnych 3,5-calowych dysków twardych o pojemności powyżej l GB wykorzystuje głowice MR. W miarę wzrostu gęstości zapisu, głowice MR w końcu rozpowszechnią się na tyle, że wyprą poprzednie konstrukcje MIG i TF. Zasada działania głowic MR opiera się na zjawisku zmiany rezystancji (oporności) przewodnika w zewnętrznym polu magnetycznym. Zamiast indukowania napięcia w momencie przejścia nad zmianą strumienia magnetycznego, głowica MR wyczuwa odwrócenie strumienia i zmienia rezystancję. Przez głowicę przepływa mały prąd, więc przy zmianie rezystancji głowicy można zmierzyć wahania natężenia tego prądu. Odczytywany w ten sposób sygnał jest ponad trzykrotnie silniejszy od wytwarzanego w głowicach TF. Głowice MR są głowicami zasilanymi, więc działają raczej jako czujniki niż generatory. Głowice MR są bardziej kosztowne i skomplikowane w produkcji od innych typów głowic, ponieważ do ich wytworzenia potrzebne są dodatkowe zabiegi techniczne oraz elementy. Niektóre z nich to: • konieczność podłączenia dodatkowych przewodów, przez które płynie prąd czujnika; • potrzeba wykonania czterech do sześciu dodatkowych masek; • konieczność ekranowania głowic, wynikająca z ich wrażliwości na rozproszone pola magnetyczne. Ponieważ zasadę działania głowicy MR można wykorzystać jedynie do odczytu, głowica tego typu w rzeczywistości składa się z dwóch głowic. Do zapisu wykorzystuje się standardową głowicę indukcyjną TF, podczas gdy głowica MR służy jedynie do odczytu. Te dwie głowice tworzą jeden element, w związku z czym każdą z nich można zoptymalizować pod kątem pełnionej przez nią funkcji.
Głowice ferrytowe, MIG i TF nazywane są głowicami jednoszczelinowymi, gdyż ta sama szczelina wykorzystywana jest do odczytu i zapisu informacji, natomiast w głowicy MR każdą funkcję pełni osobna szczelina. Podstawowy problem w głowicach jednoszczelinowych jest związany z szerokością szczeliny, będącą kompromisem między szerokością optymalną do zapisu a szerokością zapewniającą najlepszy odczyt. Podczas odczytu potrzebna jest szczelina wąska, zapewniająca wysoką rozdzielczość; przy zapisie bardziej przydatna jest szersza szczelina, umożliwiająca głębszą penetrację strumienia magnetycznego przełączającego domeny nośnika. W dwuszczelinowej głowicy MR szerokość każdej szczeliny można dostosować niezależnie - w zależności od potrzeb. Szczelina głowicy zapisującej (TF) tworzy ścieżkę szerszą od głowicy czytającej (MR). Zatem głowica czytająca ma mniejsze szansę odebrania rozproszonych impulsów magnetycznych pochodzących ze ścieżek sąsiednich. Napędy z głowicami MR wymagają lepszego ekranowania przed rozproszonymi polami magnetycznymi, gdyż pracę tego rodzaju głowic łatwiej zakłócić niż pracę głowic dowolnego ze starszych typów. Jednak w porównaniu do zalet głowic MR, wada ta jest mało istotna.
Ślizgacze głowic Termin ślizgacz stosowany jest na określenie materiału, w którym głowica dysku się znajduje. Właśnie ten element przesuwa się lub unosi nad powierzchnią dysku, utrzymując głowice podczas odczytu i zapisu w odpowiedniej odległości od nośnika. Większość ślizgaczy przypomina wyglądem katamaran, z dwoma zewnętrznymi gondolami unoszącymi się nad powierzchnią nośnika dysku oraz środkowym „sterem", zawierającym właściwe głowice ze szczelinami. Tendencja do miniaturyzacji dysków twardych wpłynęła również na zmniejszenie rozmiarów ślizgaczy. Typowa konstrukcja ślizgacza dysku mini-Winchester ma rozmiary 0,406x0,320x0,086 centymetra. Większość producentów zaczyna obecnie stosować o połowę mniejsze nanoślizgacze, o rozmiarach 0,203x0,160x0,043 centymetra. Nanośli-zgacze wykorzystywane są zwłaszcza w dyskach o dużej pojemności oraz w modelach o małych gabarytach. Mniejsze Ślizgacze redukują masę umieszczoną na końcu ramion mechanizmu, umożliwiając osiągnięcie większych przyśpieszeń, a co za tym idzie -krótszych czasów dostępu. Mniejsze Ślizgacze wymagają również węższego obszaru dysku na lądowanie głowic, zwiększając w ten sposób obszar talerzy dysku, na którym można zapisywać dane. Ponadto mniejszy obszar kontaktu ślizgacza zmniejsza zużycie powierzchni nośnika, związane z wykonywaniem zwykłych operacji uruchamiania i zatrzymywania talerzy dysku. Nowe konstrukcje nanoślizgacze mają również specjalnie dobrany kształt powierzchni, pozwalający utrzymać stałą wysokość nad powierzchnią dysku, zarówno nad cylindrami zewnętrznymi, jak i wewnętrznymi. Konwencjonalne Ślizgacze w istotny sposób unoszą się lub opadają, zależnie od względnej prędkości liniowej dysku. W przypadku cylindrów zewnętrznych większa jest zarówno prędkość liniowa, jak i odległość głowic od talerzy. Zjawisko to jest niepożądane w nowszych dyskach, w których wykorzystuje się zapisywanie strefowe, gdzie ta sama gęstość zapisu utrzymywana jest na wszystkich cylindrach. Ponieważ gęstość upakowania bitów jest stała na całej powierzchni dysku, odległość głowic od nośnika również powinna być stała w celu osiągnięcia maksymalnej wydajności. Specjalne wzory tekstury powierzchni i techniki produkcyjne w większym stopniu pozwalają utrzymać wysokość nanoślizgacze, co jest szczególnie przydatne w dyskach o zapisie strefowym.
Mechanizm głowic Równie ważny jak same głowice jest mechaniczny system ich poruszania. Mechanizm ten przesuwa głowice po powierzchni dysku i precyzyjnie je ustawia nad odpowiednim cylindrem. Stosuje się wiele odmian mechanizmu głowic, lecz można je wszystkie zaliczyć do jednego z dwóch typów • mechanizmy z silnikiem krokowym, • mechanizmy z cewką drgającą. Wybór danego typu układu pozycjonującego ma istotny wpływ na osiągi dysku oraz jego niezawodność. Wpływ ten nie ogranicza się jedynie do szybkości, lecz dotyczy równie dokładności, czułości na temperaturę, wibracji, pozycjonowania oraz ogólnej niezawodności dysku. Mówiąc wprost, dyski z silnikami krokowymi są znacznie bardzie zawodne od wyposażonych w cewkę drgającą. Parametry mechanizmu głowic są najważniejszymi parametrami związanymi z działaniem dysku. Typ mechanizmu głowic w dużej mierze determinuje osiągi dysku i jego niezawodność. W tabeli 14.8 opisane są oba typy mechanizmów oraz parametry wydajności, na które mają one wpływ. Ogólnie, dysk z silnikiem krokowym ma długi czas dostępu, jest czuły na temperaturę podczas odczytu i zapisu oraz wrażliwy na fizyczną orientację dysku podczas pracy, przy wyłączeniu zasilania nie potrafi automatycznie zaparkować głowic nad strefą lądowania i wymaga okresowego formatowania w celu utrzymania sektorów w jednej linii z ich nagłówkami. Ogólnie, dyski z silnikiem krokowym są znacznie słabsze od wyposażonych w cewkę drgającą. Niektóre z dysków z silnikiem krokowym mają możliwość automatycznego parkowania w przypadku wyłączenia zasilania. Posiadacze nowszych dysków tego typu mogą sprawdzić w dokumentacji, czy mają one możliwość automatycznego parkowania. Czasami podczas wyłączania dysk wydaje charakterystyczne odgłosy, lecz może to być mylące; niektóre z tych dysków mają specjalne hamulce, wydające wyraźny dźwięk w momencie wyłączenia zasilania, ale nie parkują głowic. Napędy dysków elastycznych ustawiają głowice za pomocą silnika krokowego. Dokładność tego mechanizmu jest wystarczająca dla dyskietek, gdyż gęstości ścieżek nie są nawet w przybliżeniu tak duże, jak w przypadku dysków twardych. Wiele tańszych dysków o małej pojemności również wyposażono w silnik krokowy. Większość dysków twardych o pojemności przekraczającej 40 MB wyposażonych jest w mechanizmy z cewką drgającą. Nigdy też nie widziałem dysku o pojemności ponad 100 MB (a tylko takie są teraz produkowane), który nie byłby wyposażony w taki mechanizm. Stwierdzenie to nie musi być zawsze prawdziwe, lecz można bezpiecznie przyjąć, że dyski o pojemności poniżej 80 MB mogą mieć dowolny z dwóch wspomnianych typów mechaniki, natomiast powyżej tej pojemności wszystkie dyski mają mechanizm z cewką drgającą. Obecnie różnica między ceną dysków z silnikiem krokowym a tych z cewką drgającą jest tak mała, że nie ma już powodu, aby korzystać z silników krokowych. Twarde dyski wyposażone w silniki krokowe nie są więc już produkowane
Silnik krokowy Silnik krokowy jest silnikiem elektrycznym, który porusza się „krokami", czyli z określonego, dotychczasowego położenia spoczynkowego przechodzi w następne, kolejne takie położenie. Gdyby chwycić oś takiego silnika i ją obrócić, można byłoby usłyszeć tyknięcie lub brzdęknięcie podczas mijania każdej z jego pozycji spoczynkowych. Wrażenie to jest podobne do tego, które towarzyszy przekręcaniu „klikającego" pokrętła regulacji głośności we wzmacniaczu. Silniki krokowe nie potrafią zatrzymywać się w połowie kroku, a jedynie w określonych położeniach spoczynkowych. Silniki te mają niewielkie rozmiary (od 3 do 8 centymetrów) i mogą być sześcienne, walcowate albo płaskie. Są one umieszczane na zewnątrz zamkniętej komory zespołu głowic dysku (HDA), choć sama ich oś wprowadzona jest do środka poprzez uszczelniony otwór. Z reguły silnik krokowy umieszczony jest w rogu dysku i łatwo go dostrzec.
Połączenia mechaniczne Silnik krokowy z głowicami połączony jest mechanicznie - za pomocą rozdwojonego stalowego paska, zawiniętego wokół osi silnika lub za pomocą mechanizmu zębatkowego. Każdy krok silnika, poprzez mechaniczne połączenie, powoduje przesunięcie głowic o jedną ścieżkę w jedną ze stron. W niektórych rozwiązaniach przesunięcie o jedną ścieżkę wymaga wykonania kilku kroków. Podczas pozycjonowania głowic, jeśli mają one być przesunięte ze ścieżki O do 100, silnik zaczyna pracować i obraca się aż do osiągnięcia 101. pozycji spoczynkowej, po czym zatrzymuje się, ustawiając głowice na odpowiednim cylindrze. Poważną wadą tego typu rozwiązania jest możliwość zmiany proporcji rozmiaru talerza w stosunku do głowicy, która pojawia się czasem w wyniku zużycia napędu, skutkiem czego głowice mogą ustawiać się niedokładnie nad cylindrami. Wada ta wynika z niemożności określenia rzeczywistego położenia danego cylindra, w związku z czym ten typ pozycjonowania nosi też nazwę systemu ślepego. W większości systemów z silnikiem krokowym, do przekształcenia obrotowego ruchu osi silnika na liniowy ruch głowic dysku wykorzystywany jest mechanizm rozdwojonej taśmy stalowej. Jest ona wykonana ze specjalnego stopu o małym współczynniku rozszerzalności cieplnej i dużej odporności na rozciąganie. Jeden koniec taśmy zawinięty jest wokół osi silnika krokowego, a drugi - połączony bezpośrednio z zespołem głowic. Stalowa taśma znajduje się wewnątrz zamkniętego zespołu dysku i nie widać jej z zewnątrz. W niektórych dyskach silnik krokowy jest połączony z głowicami za pomoce mechanizmu zębatkowego. W układzie tym mały wałek zębaty umieszczony jest na osi silnika krokowego i odpowiednio obraca dużym kołem zębatym. Koło zębate natomiast jest połączone z zespołem głowic, powodując ich przemieszczanie się. Opisywane rozwiązanie jest bardziej wytrzymałe od taśmy stalowej i daje nieco wyższą stabilność mechaniczną oraz termiczną. Jedyny problem stanowić mogą luzy mechanizmu. Luz zwiększa się wraz ze zużyciem zębatek i w ostateczności powoduje, że mechanizm staje się bezużyteczny.
Problemy z wahaniami temperatury Mechanizmy z silnikami krokowymi sprawiają wiele problemów. Najpoważniejszy z nich związany jest z temperaturą. Gdy talerze rozgrzewają się i ochładzają, następuje odpowiednio ich rozszerzanie i kurczenie; jednocześnie ścieżki przesuwają się względem ich pierwotnej pozycji. Mechanizm silnika krokowego nie umożliwia przesuwania głowic o odległości mniejsze niż krok (odstęp między ścieżkami), nie pozwalając w ten sposób na korektę nieprawidłowości wywołanych zmianą temperatury. Mechanizm ustawia głowice na określonym cylindrze, posługując się z góry ustaloną liczbą kroków silnika, bez marginesu na błędy. Podczas formatowania niskopoziomowego początkowe znaczniki ścieżek i sektorów zapisywane są na talerzach w miejscach, gdzie głowice zostały ustawione przez silnik krokowy. Gdy następne operacje na dysku odbywają się przy tej samej temperaturze, głowice zapisują dokładnie w granicach ścieżek i sektorów. Jednak przy zmianie temperatury, położenie głowic nie odpowiada już dokładnie pozycji ścieżek. Jeśli talerze są zimniejsze, głowice są przesunięte względem ścieżek, ponieważ talerze się skurczyły i ścieżki przeniosły się nieco w kierunku środka dysku. Jeśli talerze są cieplejsze niż podczas formatowania, stają się one większe, a ścieżki przesuwają się na zewnątrz. W trakcie korzystania z dysku dane są zapisywane na zewnątrz, pośrodku lub po wewnętrznej stronie ścieżek. W końcu odczytanie części ścieżek staje się niemożliwe i pojawia się błąd systemu DOS w rodzaju: „Anuluj, powtórz, zignoruj" (Abort, Retry, Ignore). Wrażliwość temperaturowa samego silnika również może być przyczyną problemów. Przykład może tu stanowić problem znany jako „blues poniedziałkowego poranka", który przejawia się wyświetlaniem błędu testu POST (Power-On SelfTest - testu wykonywanego podczas uruchamiania komputera) o numerze 1701, 1790 lub 10490. Jeśli tak się stanie, warto zostawić komputer włączony przez 15 minut, co powinno umożliwić dyskowi osiągnięcie właściwej temperatury, a tym samym normalną pracę systemu. Ten sam problem może pojawić się w odwrotnej sytuacji, kiedy to dysk staje się zbyt gorący, np. jeśli komputer wystawiony jest na światło słoneczne, lub po południu, gdy temperatura w biurze jest najwyższa. Również wtedy DOS wyświetla znajomy komunikat w rodzaju „Anuluj, Powtórz, Zignoruj". Problemy wywołane warunkami termicznymi można rozwiązać formatując dysk twardy i odtwarzając na nim pliki. Wtedy informacje umieszczane są dokładnie na bieżącej pozycji każdego cylindra. Po pewnym czasie problem znowu się pojawia i znowu staje się konieczne formatowanie dysku i odtwarzanie plików, które to operacje należy uznać za okresowe czynności konserwacyjne dysków z silnikami krokowymi. Możliwym do przyjęcia okresem między takimi operacjami jest rok (ewentualnie pół roku - o ile dysk jest bardzo czuły na zmiany temperatury). Ponowne formatowanie dysku jest bardzo niewygodne i czasochłonne, gdyż konieczne jest wykonanie kopii wszystkich plików, a następnie ich odtworzenie. Aby rozwiązać ten problem, wiele programów do formatowania niskopoziomowego umożliwia sformatowanie dysku, podczas którego dane kopiowane są z określonej ścieżki do wolnego obszaru, ścieżka jest formatowana, po czym z powrotem są na niej zapisywane pierwotne dane. Po wykonaniu takiej operacji nie trzeba odtwarzać danych, ponieważ program formatujący sam wykona już wszystkie potrzebne operacje
Nie wolno uruchamiać tzw. niedestrukcyjnych programów formatujących bez uprzedniego wykonania zapasowej kopii wszystkich plików. W czasie pracy program taki czasowo usuwa dane z dysku. Lepszym opisem sposobu działania takiego programu byłoby „destrukcyjne rekonstruujące". Jeśli w czasie pracy programu pojawi się problem z komputerem, zasilaniem lub samym programem (np. błąd programu zablokuje go w czasie pracy), nie wszystkie pliki zostaną poprawnie odtworzone, a niektóre ścieżki zostaną kompletnie skasowane. Choć programy te zwalniają użytkownika z konieczności ręcznego odtwarzania plików po wykonaniu formatowania, nadal wymagane jest uprzednie wykonanie ich kopii zapasowej
Cewka drgająca Mechanizmy z cewką drgającą stosowane są we wszystkich dyskach twardych o wyższej jakości, w tym w większości dysków o pojemności większej niż 40 MB i niemal we wszystkich dyskach o pojemności ponad 80 MB. W odróżnieniu od ślepego systemu pozycjonowania wykorzystującego silnik krokowy, mechanizm z cewką drgającą stosuje sprzężenie zwrotne z dysku, umożliwiające precyzyjne ustalenie pozycji głowic i dopasowanie jej w razie potrzeby. System ten charakteryzuje się znacznie lepszymi osiągami, większą dokładnością oraz niezawodnością niż tradycyjny mechanizm z silnikiem krokowym. Mechanizm z cewką drgającą pracuje wyłącznie dzięki siłom elektromagnetycznym. Konstrukcja ta przypomina budowę typowego głośnika audio; stąd też wywodzi się termin cewka drgająca. W głośnikach mianowicie stosuje się nieruchomy silny magnes otoczony uzwojeniami połączonymi z papierowym stożkiem głośnika. Przyłożenie napięcia do uzwojeń powoduje przesunięcie uzwojenia względem magnesu, co jest podstawą generowania dźwięku. W typowym mechanizmie dysku twardego z cewką drgającą uzwojenie elektromagnetyczne znajduje się na końcu zespołu głowic i umieszczone jest w pobliżu nieruchomego magnesu. Magnes ten nie styka się z uzwojeniami. Po przyłożeniu napięcia do uzwojeń, są one przyciągane lub odpychane od magnesu, co powoduje przesuwanie się głowic. System ten jest bardzo szybki i efektywny, a także znacznie cichszy od silnika krokowego. W odróżnieniu od silników krokowych, cewki drgające nie mają punktów spoczynku;zatrzymywanie głowic nad określonym cylindrem realizowane jest przez specjalny system naprowadzania. Z tego powodu mechanizm płynnie przesuwa się na wybraną pozycję, w sposób przypominający suwak. W opisywanych mechanizmach wykorzystywany jest system naprowadzania, nazywany serwomechanizmem, podający położenie głowic względem ścieżek i umożliwiający ich precyzyjne pozycjonowanie. Ów system nosi również nazwę serwomechanizmu z pęt/ą zamkniętą. Termin „pętla zamknięta" oznacza, że sygnał indeksowy (serwo)jest wysyłany do układu elektronicznego sterującego w systemie pętli zamkniętej. Pętla ta nosi również nazwę pętli sprzężenia zwrotnego, ponieważ do precyzyjnego ustawienia głowic wykorzystuje się sprzężenie zwrotne. Słowo „serwo" odnosi się do sygnału indeksowego, który wskazuje dokładne położenie głowic i umożliwia sterowanie nim. Mechanizm cewki drgającej wyposażonej w serwo nie jest wrażliwy na temperaturę w takim stopniu jak silnik krokowy. Jeśli jest chłodno i talerze się skurczyły (lub gdy jest gorąco i talerze się rozszerzyły), mechanizm cewki drgającej sam dostosowuje się do zmian, gdyż nie ma z góry zdefiniowanych pozycji ścieżek. Mechanizm ten raczej szuka na dysku określonej ścieżki, korzystając z wcześniej przygotowanych informacji serwomechanizmu, co umożliwia precyzyjne ustawienie głowic bez względu na temperaturę. Dzięki ciągłemu sprzężeniu zwrotnemu, głowice zawsze dopasowują się do rzeczywistego położenia ścieżek. Na przykład, jeśli talerze rozgrzeją się i rozszerzą, informacje z serwomechanizmu umożliwiają głowicom „śledzenie" ścieżek. Dlatego mechanizm cewki drgającej jest również nazywany systemem śledzenia ścieżek.
Obecnie stosowane są dwa rodzaje mechanizmów pozycjonowania z cewką drgającą: • liniowe mechanizmy cewki drgającej, • obrotowe mechanizmy cewki drgającej. Różnice między tymi typami polegają jedynie na ułożeniu magnesów i uzwojeń. Mechanizm liniowy (rys. 14.5) przesuwa głowice do wewnątrz i na zewnątrz talerzy wzdłuż linii prostej, w sposób podobny do tego, w jaki linijka przesuwana jest po stole kreślarskim. Uzwojenia przesuwają się wzdłuż ścieżki otoczonej magnesami stałymi. Podstawową zaletą tego rozwiązania jest wyeliminowanie zmian kąta między linią głowic a styczną do danego cylindra, obecnych przy mechanizmie obrotowym. Mechanizm liniowy nie obraca zatem głowic w celu przesunięcia ich z danego cylindra na inny, co eliminuje problem zmian kąta. Choć liniowy mechanizm cewki drgającej wydaje się dobrym rozwiązaniem, ma jedną poważną wadę: jest zbyt ciężki. Wraz z poprawiającymi się parametrami dysków, wzrosło zapotrzebowanie na lekkie mechanizmy głowic. Im lżejszy mechanizm, tym większe przyśpieszenia można osiągnąć podczas przesuwania głowic z cylindra na cylinder. Ponieważ mechanizmy liniowe są znacznie cięższe od obrotowych, były stosowane jedynie przez bardzo krótki czas; obecnie właściwie się ich nie produkuje. Obrotowy mechanizm głowic (przedstawiony na rys. 14.4) również ma stały magnes i ruchome uzwojenia, lecz uzwojenia te są przymocowane do końca ramienia mechanizmu, podobnie jak w przypadku ramienia gramofonu. Gdy wymusza się ruch uzwojeń względem magnesu, obracają one ramię głowicy, powodując ruch do wewnątrz lub na zewnątrz dysku. Podstawową zaletą tego rozwiązania jest jego niewielka waga, co pozwala uzyskać duże przyśpieszenia, decydujące o krótkich średnich czasach dostępu. Dzięki efektowi dźwigni ramienia głowicy, głowice poruszają się szybciej od mechanizmu pozycjonującego, co dodatkowo poprawia czasy dostępu
RYSUNEK14.5 Liniowy mechanizm cewki drgającej
Wadą systemu obrotowego jest zmiana kąta głowic względem stycznej do cylindrów, występująca w miarę ich przesuwania nad powierzchnią dysku. Opisywana zmiana kąta jest przyczyną pewnego ograniczenia powierzchni, na której znajdują się cylindry. Przy ograniczeniu zakresu ruchu głowic, wielkość owego błędu może zostać utrzymana w rozsądnych granicach. Omawiany system jest wykorzystywany praktycznie we wszystkich współczesnych twardych dyskach.
Serwomechanizmy Na przestrzeni lat stosowano trzy rodzaje serwomechanizmów sterujących działaniem cewki drgającej: • serwomechanizm klinowy, • serwomechanizm osadzony, • serwomechanizm dedykowany. Konstrukcja tych mechanizmów różni się szczegółami, lecz wszystkie pełnią to samo podstawowe zadanie: pozwalają na ciągłe dopasowywanie pozycji głowic tak, aby znajdowały się dokładnie nad odpowiednim cylindrem. Główną cechą różniącą te rozwiązania jest sposób kodowania informacji umożliwiających właściwe pozycjonowanie głowic. Wszystkie serwomechanizmy bazują na specjalnych informacjach zapisywanych na dysku wyłącznie podczas jego produkcji. Informacja ta ma zwykle postać specjalnego kodu, zwanego kodem Gray'a. Kod ten jest specjalnym systemem notacji dwójkowej, w którym sąsiednie liczby reprezentowane są przez kombinacje różniące się wartością jednego bitu. Ułatwia to odczyt informacji przez głowice i szybkie określenie dokładnej ich pozycji. Opisywany kod może być zapisany tylko raz, podczas produkcji dysku, i jest wykorzystywany do pozycjonowania przez cały okres jego eksploatacji. Kod Gray'a serwomechanizmu jest zapisywany przez specjalną maszynę o nazwie serwo-pis. Urządzenie to jest w zasadzie uchwytem mechanicznie ustawiającym głowice w zadanych położeniach i zapisującym odpowiednie informacje dla serwomechanizmu. Serw opisy są zwykle sterowane promieniami lasera, które wykorzystują do określenia własnego położenia przez obliczenie odległości w długościach fal światła. Ponieważ serw opis musi mieć możliwość mechanicznego przesuwania głowic, proces ten przebiega przy zdjętej pokrywie dysku lub przy wykorzystaniu specjalnych otworów w jego obudowie. Po zakończeniu operacji serwo zapisu otwory te zwykle są plombowane specjalną taśmą. Plomby te można często zauważyć, gdyż znajdują się na nich napisy ostrzegające o utracie gwarancji w przypadku ich zdjęcia. Ponieważ serwo zapis odbywa się przy odsłoniętym wnętrzu dysku, czynność ta musi być wykonywana w czystym środowisku. Serw opis jest kosztownym urządzeniem, którego cena przekracza 50 000 dolarów. Często musi być budowany na zamówienie, zależnie od producenta lub modelu dysku. Niektóre firmy serwisowe mają możliwość serwo zapisu, co oznacza, że mogą ponownie zapisać informacje dla serwomechanizmu dysku, jeśli zostanie on uszkodzony. W przypadku braku serw opisu, dysk twardy musi zostać wysłany z powrotem do producenta, gdzie informacje dla serwomechanizmu zostaną zapisane ponownie. Na szczęście informacji tych nie można uszkodzić podczas zwykłych operacji odczytu lub zapisu na twardym dysku. Dyski są tak skonstruowane, że nie mogą nadpisywać tych informacji, nawet podczas formatowania niskopoziomowego. Jednym z często spotykanych mitów jest ten, że informacje dla serwomechanizmu mogą zostać uszkodzone podczas niewłaściwego formatowania niskopoziomowego (zwłaszcza w przypadku dysków IDĘ). Jest to nieprawda. Niewłaściwe formatowanie dysku może spowodować spadek jego wydajności, lecz informacje dla serwomechanizmu są zawsze chronione i nie można ich nadpisać.
Zdolność do śledzenia ścieżek wynikająca z zastosowania serwomechanizmu eliminuje błędy pozycjonowania, jakie mogą się przydarzyć w dyskach z silnikiem krokowym. Dyski z cewkami drgającymi są odporne na termiczne rozszerzanie się lub kurczenie • talerzy. W rzeczywistości, wiele takich dysków po upływie określonego czasu pracy wykonuje termiczną rekalibracji głowic. Procedura ta zwykle polega na przesuwaniu głowic z cylindra zerowego na inny, po jednym przebiegu dla każdej głowicy dysku. W trakcie wykonywania tej sekwencji, elektroniczny układ sterowania dyskiem obserwuje wielkość zmian położenia ścieżek od ostatniej rekalibracji, po czym oblicza dopasowanie kalibracji termicznej i przechowuje ją w pamięci. Informacja ta jest wykorzystywana przy każdym pozycjonowaniu głowic, zapewniając maksymalnie dokładne sterowanie. Większość dysków wykonuje kalibrację termiczną co 5 minut przez pierwsze pół godziny pracy i co 25 minut po upływie tego czasu. W niektórych dyskach (np. Ouantum) sekwencja kalibracji termicznej jest łatwa do zauważenia; dysk przestaje wykonywać bieżącą operację i przez sekundę słychać szybkie tykanie. W tym momencie użytkownik może pomyśleć, że dysk ma problemy z odczytem i próbuje powtórzyć operację, lecz nie jest to zgodne z prawdą. Większość nowszych, inteligentnych dysków twardych (IDĘ i SCSI) wykorzystuje tę technikę do najbardziej optymalnego ustawiania głowic. W miarę wzrostu znaczenia aplikacji multimedialnych, kalibracja termiczna niektórych dysków zaczęła powodować problemy. W czasie jej trwania może zostać zatrzymany transfer danych, co prowadzi do przerwania odtwarzanej animacji i zakłóceń dźwięku. Producenci takich dysków dołączyli do oferty specjalne dyski A/V (Audio Visual - audiowizualne), w których kalibracja termiczna nie zatrzymuje transferu danych. Większość nowszych dysków IDĘ i SCSI jest typu A/V, co oznacza, że w czasie kalibracji głowic nie przerywają one transferu danych związanego np. z odtwarzaniem filmu. Inną operacją wykonywaną automatycznie przez dyski zdolne do kalibracji termicznej jest tzw. omiatanie dysku. Polega ono na automatycznym przesunięciu głowic wykonywanym po upływie określonego czasu bezczynności (np. 9 minut). Podczas tej operacji głowice przesuwane są do losowo wybranego cylindra w zewnętrznej strefie dysku, uważanej za obszar o większej odległości głowic od nośnika, będącej wynikiem dużej prędkości liniowej. Następnie, jeśli dysk pozostaje bezczynny przez kolejny okres, głowice przesuwane są do innego cylindra z tego samego obszaru i cykl jest powtarzany, aż do wyłączenia zasilania. Omiatanie dysku zaprojektowano z myślą o zapobieganiu pozostawania głowic na jednym cylindrze, gdyż z powodu tarcia między głowicą a talerzem mogą one wyżłobić rowek w nośniku. Chociaż głowice nie są w bezpośrednim kontakcie z nośnikiem, unoszą się tak blisko talerzy, że stałe ciśnienie powietrza pod głowicami może wywołać efekt tarcia i zużycie powierzchni.
Serwomechanizm klinowy Niektóre wczesne konstrukcje serwomechanizmów wykorzystywały technikę nazywaną serwomechanizmem klinowym. W dyskach tych informacje dla serwomechanizmu zapisywane były w „klinowym" wycinku każdego cylindra, bezpośrednio poprzedzającym znacznik indeksowy. Znacznik ten wskazuje na początek każdej ścieżki, tak więc informacje dla serwomechanizmu zapisywane były w przerwie poprzedzającej sygnał indeksowy każdej ścieżki. Obszar ten jest przeznaczony na kompensację wahań prędkości obrotowej i kontroler zwykle z niego nie korzysta. Rysunek 14.6 przedstawia sposób zapisania na dysku informacji dla serwomechanizmu.
Niektóre kontrolery, jak np. Xebec 1210, wykorzystywany przez IBM w komputerach XT, muszą być powiadomione o korzystaniu przez dysk z systemu serwomechanizmu klinowego, aby mogły zmienić zależności czasowe w celu pomieszczenia obszaru na dodatkowe informacje. Bez odpowiedniego skonfigurowania kontrolery takie mogłyby niepoprawnie obsługiwać wspomniane dyski. Wiele osób naiwnie wierzyło, że informacje dla serwomechanizmu mogą zostać usunięte podczas niepoprawnego formatowania niskopoziomowego. Jednak jest to nieprawda; wszystkie dyski z opisywanym systemem blokują jakiekolwiek operacje zapisu i przejmują kontrolę nad sygnałami wyboru głowic za każdym razem, gdy głowice znajdują się nad obszarem klina. W ten sposób informacje dla serwomechanizmu chronione są przed możliwością usunięcia, niezależnie od wysiłków podejmowanych przez użytkownika. Gdyby kontroler próbował zapisać cokolwiek na tym obszarze, dysk zablokowałby tę operację i kontroler nie będzie mógł wykonać pełnego formatowania. Większość kontrolerów po prostu nie zapisuje w przerwie poprzedzającej sygnał indeksowy, dzięki czemu nie trzeba ich specjalnie konfigurować do dysków z serwomechanizmem klinowym. Jedynym sposobem uszkodzenia informacji dla serwomechanizmu jest pojawienie się bardzo silnego pola magnetycznego (bądź też uderzenie głowic o talerze lub inna katastrofa). W takiej sytuacji dysk powinien zostać wysłany do naprawy i ponownego zapisu informacji dla serwomechanizmu. Problem pojawiający się podczas używania tego sposobu zapisu informacji polega na tym, że informacje dla serwomechanizmu dostępne są co jeden obrót talerzy, a to oznacza, że do precyzyjnego ustawienia głowic potrzeba będzie większej liczby obrotów. Z tego powodu mechanizm ten nigdy nie zyskał większej popularności i nie jest już stosowany. Rysunek14.6 Informacje dla serwomechanizmu zapisane klinowo
Informacje osadzone dla serwomechanizmu
Serwomechanizm osadzony Serwomechanizm z informacjami osadzonymi (rys. 14.7) jest odmianą serwomechanizmu klinowego. Jednak kod dla serwomechanizmu nie znajduje się przed początkiem każdej ścieżki, lecz przed początkiem każdego sektora. Rozwiązanie to umożliwia znacznie częstsze odbieranie sygnałów przez obwody pozycjonujące, co pozwala o wiele szybciej i dokładniej ustawić głowice. Inną zaletą jest obecność informacji pozycjonujących na każdej ścieżce, dzięki czemu można szybko i efektywnie dopasować pozycję każdej głowicy, kompensując zmiany rozmiaru talerza lub głowicy, powstałe najczęściej w wyniku rozszerzalności cieplnej lub naprężeń. W większości współczesnych dysków, do pozycjonowania wykorzystywany jest serwomechanizm z informacjami osadzonymi. Podobnie jak w przypadku serwomechanizmu klinowego, informacje osadzone są chronione przez obwody logiczne napędu. Jeśli głowice znajdują się nad obszarem informacji dla serwomechanizmu, każda próba zapisu danych jest blokowana. Dlatego, wbrew mylnym przekonaniom wielu osób, podczas formatowania niskopoziomowego nie można zmienić informacji dla serwomechanizmu. choć serwomechanizm z informacjami osadzonymi działa znacznie lepiej od serwomechanizmu klinowego (dzięki wielokrotnemu dostępowi do informacji w czasie jednego obrotu dysku), lepszy byłby system z ciągłym przesyłem informacji sprzężenia zwrotnego
Serwomechanizm dedykowany W rozwiązaniu zwanym serwomechanizmem dedykowanym informacje dla serwomechanizmu zapisane są na całej ścieżce w sposób ciągły, nie tylko na początku każdej ścieżki lub sektora. Gdyby informacje te zapisać na każdym z talerzy dysku, zabrakłoby miejsca na dane. Dlatego informacje dla serwomechanizmu zapisywane są na jednej stronie wybranego talerza, przeznaczonej wyłącznie do pozycjonowania. Słowo „dedykowany" pochodzi stąd, że wspomniana strona talerza jest przeznaczona tylko dla informacji serwomechanizmu i nie zawiera żadnych innych danych. Choć opisywane rozwiązanie może wydawać się marnotrawstwem, żadna z pozostałych stron talerzy nie zawiera informacji dla serwomechanizmu, przez co straty pojemności dysku są zbliżone do strat przy stosowaniu informacji osadzonych. W twardym dysku z serwomechanizmem dedykowanym jedna strona określonego talerza jest wyłączana z normalnych operacji odczytu i zapisu. Na tej stronie za pomocą kodu szarego zapisywany jest specjalny zestaw informacji wskazujących prawidłowe pozycje ścieżek. Ponieważ za pomocą głowicy znajdującej się nad tą stroną talerza nie można normalnie odczytywać ani zapisywać danych, informacje dla serwomechanizmu są chronione i, podobnie jak w dwóch pozostałych rozwiązaniach, nie mogą zostać usunięte. Nie istnieje również możliwość uszkodzenia tych informacji podczas formatowania niskopoziomowego czy jakiejkolwiek innej operacji. Gdy dysk otrzymuje polecenie ustawienia głowic na określonym cylindrze, układy elektroniczne dysku określają położenie głowic korzystając z sygnałów przesyłanych przez głowicę serwomechanizmu. W trakcie przesuwania głowic liczniki ścieżek są odczytywane z talerza serwomechanizmu. Gdy głowica serwomechanizmu wykryje odpowiednią ścieżkę, mechanizm jest zatrzymywany. Następnie wykonywane jest precyzyjne pozycjonowanie, dzięki czemu przed udzieleniem zezwolenia na zapis głowice są dokładnie ustawione na odpowiednim cylindrze. Choć do pozycjonowania wykorzystuje się tylko jedną głowicę, to pozostałe głowice, jako zamontowane na tym samym ramieniu, również zostają ustawione precyzyjnie nad określonym cylindrem. Jedną z łatwo zauważalnych cech dysków z serwomechanizmem dedykowanym jest nieparzysta liczba głowic. Na przykład dysk Toshiba MK-538FB o pojemności 1,2 GB ma osiem talerzy i tylko 15 głowic odczytująco-zapisujących; w dysku tym zastosowano dedykowany serwomechanizm pozycjonujący, którego głowica jest szesnastą głowicą dysku. Omawiany typ serwomechanizmu stosowany jest w niemal wszystkich nowoczesnych twardych dyskach, ponieważ zapewnia ciągły dopływ informacji wykorzystywanych do pozycjonowania, niezależnie od aktualnego położenia głowic. Serwomechanizm dedykowany daje największą możliwą precyzję pozycjonowania. W niektórych twardych dyskach używane jest nawet połączenie mechanizmu dedykowanego z osadzonym, lecz takie hybrydowe rozwiązanie jest rzadko stosowane.
Automatyczne parkowanie głowic Gdy zasilanie dysku twardego zostanie wyłączone, naprężenie sprężyn w ramionach głowic powoduje zbliżanie głowic do powierzchni talerzy i kontakt z nimi. Dysk jest tak skonstruowany, aby mógł wytrzymać tysiące takich kontaktów: lądowań i startów, lecz rozsądek nakazuje, by głowice znajdowały się w tym czasie nad obszarem talerza, który nie zawiera danych. Podczas startu i lądowania nośnik ulega niewielkiemu otarciu, wskutek czego powstaje „mikroskopijna chmurka" nośnika; jeśli jednak dysk jest w tym czasie wystawiony na działanie wstrząsów, nośnik może zostać poważnie uszkodzony.
Jedną z zalet mechanizmu z cewką drgającą jest możliwość automatycznego parkowania głowic. W twardym dysku z takim mechanizmem głowice są przesuwane i utrzymywane w pozycji dzięki siłom magnetycznym. Po wyłączeniu zasilania pole magnetyczne utrzymujące głowice nad określonym cylindrem zanika, co może doprowadzić do ślizgania się głowic po powierzchni dysku i powstania uszkodzeń. Dlatego w rozwiązaniach z cewką drgającą (we wszystkich nowoczesnych dyskach) mechanizm głowic wyposażony jest w słabą sprężynę oraz ogranicznik. Przy włączonym zasilaniu dysku mechanizm pozycjonujący głowic jest znacznie silniejszy od tej sprężyny. Jednak po wyłączeniu zasilania, sprężyna ta delikatnie przesuwa mechanizm na pozycję parkowania, w której jest on blokowany, zanim talerze się zatrzymają, a głowice wylądują na talerzach. Wiele dysków w momencie wyłączenia wydaje charakterystyczny odgłos, który powstaje, gdy głowice ciągnięte przez tę sprężynę, parkując, odbijają się od ogranicznika. W twardych dyskach z cewką drgającą mechanizm parkowania jest włączany w momencie zaniku zasilania; nie trzeba uruchamiać programów do parkowania czy wycofywania głowic. W przypadku nagłego zaniku energii elektrycznej głowice parkują się automatycznie, a po włączeniu zasilania następuje ich automatyczny wyjazd (odparkowanie). Niektóre dyski z silnikami krokowymi (np. dyski z serii Seagate ST-251) również potrafią zaparkować głowice, lecz funkcja ta jest rzadko spotykana wśród dysków tego typu. Dyski z silnikami krokowymi, które potrafią parkować głowice, zwykle korzystają z genialnego rozwiązania, w którym po zaniku zasilania silnik napędowy talerzy pełni rolę prądnicy. Uzyskana siła elektromotoryczna wykorzystywana jest do napędzania silnika krokowego, co umożliwia zaparkowanie głowic.
Filtry powietrza Niemal każdy dysk twardy ma dwa filtry powietrza. Jeden z nich nosi nazwę filtru cyrkulacyjnego, a drugi -filtru barometrycznego lub oddechowego. Filtry te są na stałe zamknięte w obudowie mechanizmu i przez cały czas eksploatacji dysku nie ma potrzeby ich wymieniania, czym różnią się od filtrów dysków twardych do komputerów typu main frame, w których filtry są wymienne. W wielu dyskach tego typu krąży powietrze pochodzące z zewnątrz, przechodzące przez filtr, który należy okresowo wymieniać. Twarde dyski do komputerów osobistych nie wymieniają powietrza z otoczeniem. Zadaniem filtru cyrkulacyjnego jest wyłapywanie małych cząstek nośnika, uwalnianych podczas startów i lądowań głowic (oraz innych małych cząstek znajdujących się wewnątrz mechanizmu). Ponieważ dyski te są na trwałe zamknięte i nie wymieniają powietrza z otoczeniem, mogą one pracować w zanieczyszczonym środowisku (rys. 14.8). Rysunek14.8 Krążenie powietrza wewnątrz dysku twardego
Kierunek przepływu powietrza Talerze i głowice dysku twardego są zamknięte, ale nie hermetycznie. Wnętrze dysku jest wentylowane przez filtr barometryczny (oddechowy), umożliwiający wyrównanie ciśnienia powietrza (oddychanie) między otoczeniem a środowiskiem wewnętrznym dysku. Z tego powodu większość producentów podaje zakres wysokości, w którym dysk może pracować zwykle od 300 metrów pod poziomem morza do 3000 metrów nad poziomem morza. Niektórych dysków nie powinno się wykorzystywać nawet na wysokości przekraczającej 2000 metrów, ponieważ ciśnienie powietrza w ich wnętrzu byłoby zbyt niskie, aby głowice mogły prawidłowo się unosić nad powierzchnią talerzy. Gdy zmienia się ciśnienie powietrza otoczenia, powietrze przepływa przez filtr do środka lub na zewnątrz dysku, wyrównując różnicę ciśnień. Choć powietrze przenika przez otwór w obudowie dysku, zanieczyszczenie mechanizmu zwykle nie jest problemem, gdyż filtr barometryczny w tym otworze nie przepuszcza cząstek o średnicy przekraczającej 0,3 mikrometra, zapewniając odpowiedni poziom czystości. Otwory te można łatwo zauważyć, podobnie jak opisywane filtry barometryczne przykrywające je od wewnątrz. W niektórych dyskach stosuje się jeszcze drobniejsze filtry, chroniące przed nawet mniejszymi cząstkami zanieczyszczeń. Na jednym z seminariów, które odbyły się kilka lat temu na Hawajach, obecni byli słuchacze z obserwatorium astronomicznego Mauna Kea. Mówili oni, że niemal wszystkie twarde dyski używane w obserwatorium, o ile w ogóle dały się uruchomić, bardzo szybko ulegały awarii. Nie jest to niespodzianką, ponieważ obserwatorium to zbudowano na szczycie góry o wysokości ponad 4100 m, a tak wysoko nawet ludziom trudno się pracuje! Rozwiązaniem problemu proponowanym w owym czasie było stosowanie jako podstawowego nośnika informacji dysków krzemowych (jest to odmiana pamięci RAM), taśm magnetycznych czy nawet dyskietek. Od tamtej pory jednak firma Adstar - oddział firmy IBM zajmujący się twardymi dyskami - wprowadziła odporne na wstrząsy 3,5-calowe dyski, które są hermetycznie zamknięte i wypełnione powietrzem. Ponieważ ciśnienie wewnątrz tych dysków nie zmienia się, mogą one pracować na do wolnej wysokości oraz przy bardzo silnych wstrząsach i dużych skokach temperatury. Dyski te są projektowane do zastosowań wojskowych i przemysłowych, np. do pracy na pokładach samolotów lub w ciężkich warunkach środowiskowych. Aklimatyzacja temperaturowa dysku twardego W celu umożliwienia wyrównywania ciśnień, twarde dyski mają otwór z filtrem, przez który powietrze przepływa do środka lub na zewnątrz obudowy. W trakcie wymiany powietrza do środka napędu dostaje się również wilgoć i po upływie pewnego czasu poziom wilgotności wewnątrz dysku jest taki sam jak w jego otoczeniu. Wilgotność powietrza może być poważnym zagrożeniem, jeśli nastąpi kondensacja pary wodnej, a zwłaszcza wtedy, gdy dysk w takim stanie zostanie włączony. Większość producentów dysków twardych opracowała procedury aklimatyzacyjne, dostosowujące dyski do zmiennych warunków środowiska i eliminujące negatywny wpływ zmian temperatury i wilgotności na pracę dysku. Procedur tych warto przestrzegać, zwłaszcza w przypadku przeniesienia dysku do środowiska cieplejszego od tego, w którym się dotychczas znajdował, co może spowodować kondensację pary wodnej. Szczególną uwagę powinni poświęcić im posiadacze laptopów i innych komputerów przenośnych wyposażonych w twarde dyski. Na przykład, jeśli w zimie komputer taki będzie przewożony w bagażniku samochodu, po czym przeniesiony do pokoju, to włączenie go bez odpowiedniej aklimatyzacji może mieć fatalne skutki. Poniższy tekst oraz informacje w tabeli 14.9 pochodzą z opakowań, w jakich firma Control Data Corporation (później Imprimis i ostatecznie Seagate) dostarcza swoje twarde dyski:
Tabela 14.9 Aklimatyzacja środowiskowa dysku twardego Poprzednia temperatura środowiska,
czas aklimatyzacji
+4°C
13 godzin
-1°C
15 godzin
-7°C
16 godzin
-12°C
17 godzin
-18°C
18 godzin
-23°C
20 godzin
-29°C
22 godziy
-34°C lub mniej
27godin
Jeśli urządzenie to zostało odebrane lub usunięte ze środowiska o temperaturze równej lub mniejszej niż 10°C, nie należy otwierać opakowania do momentu spełnienia poniższych warunków, gdyż w przeciwnym razie może nastąpić kondensacja pary wodnej, prowadząca do uszkodzenia urządzenia lub nośnika. Niniejsze opakowanie należy umieścić w środowisku roboczym na czas określony w poniższej tabeli. Jak widać, dysk przechowywany w niskiej temperaturze powinien przed uruchomieniem zostać umieszczony w środowisku roboczym na czas potrzebny do aklimatyzacji
Silniki napędowe talerzy Silnik napędzający talerze dysku, połączony z trzpieniem obrotowym, wokół którego obracają się talerze, nazywany jest silnikiem trzpieniowym. W twardych dyskach silniki zawsze są połączone bezpośrednio z trzpieniem; nie wykorzystuje się żadnych pasków ani przekładni. Silniki takie nie mogą bowiem wytwarzać żadnych hałasów ani wibracji, gdyż wstrząsy mogłyby się przenieść na talerze, co zakłócałoby operacje odczytu i zapisu danych. Prędkość obrotu tych silników musi być precyzyjnie kontrolowana. Talerze dysku twardego obracają się z prędkością od 3600 do ponad 7200 obrotów na minutę, a ich silniki napędowe mają obwody kontrolne z pętlą sprzężenia zwrotnego, które precyzyjnie sterują prędkością obrotową talerzy. Ponieważ kontrola prędkości musi być automatyczna, twarde dyski nie mają możliwości dopasowania prędkości obrotowej silnika. Niektóre programy diagnostyczne podają prędkość obrotową silnika, lecz podawane wartości obliczane są na podstawie czasu, w jakim odczytywane są sektory. W rzeczywistości nie ma sposobu zmierzenia prędkości obrotowej dysku twardego za pomocą programu; takich pomiarów mogą dokonać jedynie specjalistyczne urządzenia testujące. Dlatego nie należy się przejmować błędnymi wartościami prędkości podawanymi przez program diagnostyczny; zazwyczaj wina leży po stronie programu - nie dysku. Informacje o prędkości obrotowej talerzy nie są wysyłane przez interfejs kontrolera dysku twardego.
W przeszłości programy mogły podawać przybliżoną wartość prędkości obrotowej na podstawie wielokrotnych pomiarów czasu odczytu sektorów; jednak metoda ta sprawdzała się jedynie w przypadku, gdy wszystkie dyski miały stałą liczbę sektorów na ścieżce (17) i stałą prędkość 3600 obrotów na minutę. Zapisywanie strefowe w połączeniu ze zmienną prędkością obrotową, stosowaną we współczesnych twardych dyskach, oraz buforowanie danych w wewnętrznej pamięci dysku nie pozwalają na uzyskanie dokładnego pomiaru. W większości dysków silnik napędzający trzpień obrotowy znajduje się u dołu, tuż pod zamkniętym zespołem głowic dysku (HDA). Nowsze dyski mają jednak silniki wbudowane bezpośrednio w piastę talerzy wewnątrz zespołu HDA. Rozwiązanie to pozwala na zwiększenie liczby talerzy dysku, ponieważ silnik nie zajmuje przestrzeni w płaszczyźnie pionowej napędu. W tak zaprojektowanym napędzie można upakować więcej talerzy niż w napędzie z silnikiem znajdującym się na zewnątrz zespołu HDA. Silniki trzpieni obrotowych, zwłaszcza w dyskach o większych rozmiarach, potrzebują prądu o napięciu 12 V i dość dużym natężeniu. Większość silników podczas rozpędzania talerzy wymaga energii nawet trzykrotnie większej niż normalnie. Ten intensywny pobór prądu trwa jedynie kilka sekund, do chwili osiągnięcia przez talerze prędkości roboczej. Jeśli w komputerze znajduje się kilka dysków twardych, zaleca się ustawienie sekwencji rozpędzania poszczególnych dysków, dzięki czemu zasilacz nie będzie obciążony wszystkimi dyskami jednocześnie. Większość dysków SCSI i IDĘ ma możliwość opóźnienia startu silnika
Pasek uziemiający trzpień Niektóre dyski wyposażone są w specjalny pasek uziemiający, połączony z masą dysku i spoczywający na osi silnika napędzającego talerze, który stanowi jedną z najczęstszych przyczyn głośnej pracy dysków twardych. Pasek uziemiający jest zwykle wykonany z miedzi i ma grafitową okładzinę, stykającą się z osią silnika lub talerzy. Pasek uziemiający rozprasza ładunki elektryczne wytwarzane przez talerze wirujące w powietrzu wewnątrz mechanizmu. Gdy w wyniku tarcia powietrza o talerze powstają na nich ładunki elektryczne, które nie są odprowadzane, może nastąpić wyładowanie elektryczne przez głowice lub łożyska silnika. Gdy wyładowanie następuje w łożyskach, wypalane są smary znajdujące się w ich zamkniętych obudowach. Z kolei podczas wyładowania przez głowice może nastąpić uszkodzenie głowic lub informacji przechowywanych na dysku. Pasek uziemiający odprowadza ładunki elektryczne, zapobiegając wspomnianym problemom. W miejscu styku osi silnika obracającego się z pełną szybkością i grafitowej okładziny (znajdującej się na końcu paska uziemiającego) często następuje nieregularne wytarcie materiału. Jest to przyczyną wibracji paska uziemiającego, wydającego wysoki pisk lub brzęczenie. Wiele osób sądzi, że hałas ten jest objawem poważniejszego uszkodzenia, np. awarii silnika lub łożyska, ale to zdarza się bardzo rzadko. Hałas ten może pojawiać się i zanikać, zależnie od temperatury i wilgotności powietrza. Czasem uderzenie w bok komputera może spowodować przesunięcie paska, tak że spowoduje to zmianę opisywanego odgłosu lub jego zanik. Nie jest to jednak sposób rozwiązania problemu. W żadnym wypadku nie polecam uderzania w obudowę komputera! Jeśli pasek uziemiający wibruje i jest przyczyną hałasu, można zastosować następujące środki zaradcze: • Wytłumienie wibracji za pomocą miękkiej taśmy piankowej lub gumy. • Przesmarowanie punktu styku. • Wyrwanie paska (nie zalecane!).
W niektórych dyskach pasek uziemiający jest łatwo dostępny. Inne trzeba częściowo rozmontować, aby dostać się do paska, np. zdjąć płytkę z elementami elektronicznymi lub inne zewnętrzne elementy. Najlepszym rozwiązaniem jest pierwsze z podanych. Najskuteczniejszym sposobem usunięcia problemu jest przyklejenie (przymocowanie) do paska kawałka gumy lub taśmy piankowej. W ten sposób zmienia się charakterystykę harmoniczną paska, co zwykle tłumi wibracje. Większość producentów stosuje już tę technikę w nowych twardych dyskach. Najłatwiej jest umieścić kawałek taśmy piankowej w dolnej części paska uziemiającego. Można także nanieść na pasek kroplę gumy silikonowej RTV (wulkanizowanej w temperaturze pokojowej) lub uszczelniacza. Przy takim rozwiązaniu należy stosować obojętny (nie korodujący) wypełniacz silikonowy, dostępny w sklepach motoryzacyjnych. Wypełniacz taki ma etykietę informującą, że jest bezpieczny dla samochodowych czujników tlenu. Oznacza to, że nie ma w nim kwasów mogących spowodować korozję miedzianego paska; silikon taki również jest opisywany jako bezwonny, ponieważ nie ma on zapachu octu, często spotykanego w wypełniaczach silikonowych. Naniesienie małej ilości silikonu na miedziany pasek (punkt styku powinien zostać nienaruszony) powinno ostatecznie rozwiązać problem. Smarowanie paska jest rozwiązaniem krótkotrwałym, choć możliwym do przyjęcia. Stosowany smar powinien przewodzić prąd, tak jak smary z dodatkiem grafitu, które wprowadza się do zamrożonych zamków samochodowych. Każdy smar przewodzący, np. z dodatkiem molibdenu lub litu, działa tak długo, jak długo przewodzony jest prąd. Nie należy stosować standardowych olejów ani smarów. W celu posmarowania paska wystarczy umieścić małą kroplę oleju w punkcie styku paska z osią. Ostatnie z podanych rozwiązań jest nie do przyjęcia. Usunięcie paska co prawda eliminuje hałas, lecz wywołuje pewne efekty uboczne. Choć bez paska dysk również będzie pracował (cicho), pasek ten nie został tam zamontowany bez powodu. Wystarczy sobie wyobrazić wyładowania elektryczne biegnące między talerzami a głowicami, być może nawet w postaci iskry mogącej uszkodzić głowice cienkowarstwowe. Dlatego lepiej zastosować inne rozwiązanie. O usunięciu paska wspomniałem jedynie dlatego, że rozwiązanie to opisują niektórzy dostawcy dysków twardych, a nawet producenci; jednak zdrowy rozsądek nakazuje skorzystanie z innych możliwości.
Płytki logiczne Każdy napęd dysków, w tym napęd dysków twardych, ma zamontowaną jedną lub kilka płytek z elementami elektronicznymi. Te tzw. płytki logiczne zawierają elementy sterujące głowicami i silnikiem talerzy, a także przesyłające do kontrolera dane w określonej postaci. Niektóre dyski mają wbudowany kontroler, co zmniejsza ogólną liczbę układów scalonych znajdujących się w komputerze. Wiele awarii dysków twardych polega na uszkodzeniu elementów nie mechanicznych, lecz elektronicznych (to stwierdzenie może się wydawać nieprawdopodobne, jednak jest prawdziwe). Dlatego naprawa wielu uszkodzeń polega na wymianie płytek z elementami elektronicznymi, a nie na wymianie całego dysku. Wymiana elementów elektronicznych umożliwia uzyskanie dostępu do danych znajdujących się na uszkodzonym dysku, co po wymianie całego urządzenia jest niemożliwe.
Płytki z elementami elektronicznymi można wymieniać, gdyż są one po prostu podłączone do gniazdek w dysku i przymocowane za pomocą typowych śrub. Jeśli dysk twardy uległ awarii, a dostępny jest inny egzemplarz tego samego modelu, można sprawdzić, czy przyczyną awarii nie jest uszkodzenie układów elektronicznych; w tym celu należy wymontować płytkę z uszkodzonego dysku i wstawić w jej miejsce taką samą płytkę z dysku sprawnego. Jeśli podejrzenia się potwierdzą, można zamówić u producenta dysku nową płytkę logiczną. Jeśli jednak uszkodzony dysk nie zawiera plików, które należy odzyskać, przy obecnych cenach prawdopodobnie rozsądniejszym wyjściem jest zakup nowego dysku Aby jeszcze bardziej obniżyć koszty, można zamówić odpowiednie części zamienne u niezależnych dostawców. Firmy te, za identyczne elementy, często żądają mniejszych sum niż producenci dysków twardych.
Kable i złącza Większość dysków twardych ma kilka złączy umożliwiających podłączenie do komputera, zasilacza i czasami również masy obudowy komputera. W większości dysków znajdują się przynajmniej trzy typy złączy: • złącze (lub złącza) interfejsu, • złącze zasilania, • opcjonalne wyprowadzenie uziemienia. Z tych trzech typów najważniejsze są złącza interfejsu, ponieważ służą one do przesyłania danych i sygnałów sterujących między komputerem a dyskiem. W wielu interfejsach dysków urządzenia podłączane są równolegle (kolejno do jednej szyny). Większość interfejsów obsługuje przynajmniej dwa dyski, interfejs SCSI - do siedmiu dysków w łańcuchu. Niektóre interfejsy, np. ST-506/412 lub ESDI, mają oddzielne kable do przesyłania danych i sygnałów sterujących. Obsługiwane przez nie dyski są więc podłączane do interfejsu za pomocą dwóch kabli. Dyski IDĘ i SCSI mają zwykle jedno złącze do przesyłania danych i sygnałów sterujących. Interfejsy te obsługują kontrolery wbudowane w twarde dyski (rys. 14.9).
Rysunek 14.9. Typowe złącza dyskutwardego(na przykładziedysku ESDI lub ST-506/412)
Różne interfejsy i parametry kabli opisane są w dalszej części rozdziału, poświęconej interfejsom dysków twardych. Opisy poszczególnych wyprowadzeń niemal wszystkich interfejsów znajdują się w rozdziale 15. „Interfejsy dysków twardych". Złącze lub gniazdo zasilania jest zwykle takie samo jak w napędach dysków elastycznych i jest do niego podłączany taki sam przewód zasilający. Większość dysków twardych korzysta zarówno z napięcia 5 V, jak i 12 V, choć niektóre mniejsze dyski do komputerów przenośnych mogą być zasilane jedynie prądem o napięciu 5 V. W większości przypadków napięcie 12 V wykorzystywane jest do napędu talerzy i mechanizmu głowic, a obwody elektroniczne są zasilane prądem o napięciu 5 V. Stosowany zasilacz powinien dysponować mocą zapewniającą poprawne działanie wszystkich dysków twardych zainstalowanych w komputerze. Pobór prądu o napięciu 12 V zwykle zmienia się wraz z gabarytami dysku. Im większy napęd i im więcej ma obracających się talerzy, tym większy jest pobierany przez niego prąd. Większa jest również wtedy prędkość obrotowa, co podnosi zużycie energii. Na przykład większość współczesnych 3,5-calowych dysków twardych zużywa około jednej czwartej mocy (wyrażonej w watach) potrzebnej dyskom 5,25 cala o podwójnej wysokości. Niektóre z bardzo małych dysków twardych (2,5 cala lub 1,8 cala) pobierają minimalny prąd o mocy poniżej jednego wata! W niektórych komputerach, takich jak oryginalny IBM AT, szczególnie ważne jest zastosowanie odpowiedniego zasilacza. Zasilacze tych komputerów mają trzy złącza do zasilania dysków, oznaczone jako P10, Pl l i P12. Wydaje się, że trzy złącza powinny wystarczyć, lecz w dokumentacji technicznej komputera można przeczytać, że przez złącza P10 i Pil może płynąć prąd o napięciu 12 V i natężeniu 2,8 A, natomiast przez złącze P12 prąd o napięciu również 12 V, lecz o natężeniu już tylko l A. Ponieważ większość dysków o podwójnej wysokości pobiera prąd o natężeniu znacznie przekraczającym l A (zwłaszcza podczas uruchamiania), przez złącze P12 można zasilać jedynie stacje dysków i dyski twarde o połowie wysokości. Podczas pierwszych sekund pracy niektóre dyski 5,25 cala mogą pobierać prąd o natężeniu aż 4 A. W czasie normalnej pracy dyski takie potrzebują prądów rzędu 2,5 A. Większość komputerów zgodnych z PC ma zasilacze z czterema lub więcej złączami zasilającymi, przez które może płynąć jednakowy prąd. Wyprowadzenie uziemienia umożliwia połączenie masy dysku twardego z obudową komputera. W większości komputerów dysk twardy jest przytwierdzony bezpośrednio do wewnętrznej konstrukcji obudowy, więc przewód uziemiający jest zbędny. W niektórych komputerach dyski są jednak przykręcone do szyn z plastyku lub włókna szklanego, które nie zapewniają właściwego uziemienia. Dyski takie należy uziemić, korzystając z wyprowadzenia masy dysku. Nieprawidłowe uziemienie dysku może być przyczyną jego niewłaściwego działania, zdarzających się co pewien czas awarii lub ogólnych błędów odczytu i zapisu.
Elementy konfiguracyjne Aby skonfigurować dysk twardy instalowany w komputerze, należy zwykle ustawić lub skonfigurować kilka zworek (i być może również rezystorów terminujących). Elementy są różne, w zależności od rodzaju interfejsu, a nawet modelu dysku twardego
Płyta czołowa Do wielu dysków twardych można opcjonalnie zamontować płytę czołową (rys. 14.10). Element ten zwykle należy do wyposażenia dodatkowego. W większości współczesnych komputerów rolę płyty czołowej dysku pełni obudowa komputera. Rysunek14.10
Twarde dyski montowane w starszych komputerach często były widoczne z zewnątrz. Do przykrycia otworu z dyskiem potrzebna była odpowiednia płyta czołowa. Płyty te produkowano w kilku rozmiarach i kolorach, dopasowanych do różnych typów komputerów. Do dysków 3,5-calowych dostępnych jest wiele płyt czołowych, pasujących zarówno do przegród na dyski 3,5-calowe, jak i 5,25 calowe. Można nawet wybrać ich kolor (zwykle czarny, kremowy lub biały). Niektóre płyty czołowe mają wbudowaną diodę świecącą (LED), która mruga w czasie pracy dysku twardego. Dioda LED zamontowana jest w płycie czołowej; podłączone do niej przewody zakończone są złączem wkładanym do odpowiedniego gniazdka w twardym dysku lub kontrolerze. Niektóre dyski mają na stałe zamontowaną diodę LED, a w płycie czołowej jest tylko okienko z przezroczystym lub zabarwionym tworzywem sztucznym, przez które widać mrugające światełko. Przy starszych twardych dyskach może się pojawić pewien problem z diodą LED: dioda ta świeci w sposób ciągły, pełniąc niejako rolę wskaźnika zasilania dysku, zamiast wskaźnika jego pracy. Przyczyną tego jest bezpośrednie podłączenie diody LED dysku do kontrolera, który zmienia jej zachowanie. Niektóre kontrolery mają zworkę umożliwiającą przełączenie trybu obsługi dysku z zatrzaskowego (latched) na niezatrzaskowy (uniatched).
W zatrzaskowym trybie pracy dysk jest przez cały czas wybrany, czego skutkiem jest ciągłe świecenie diody LED; w trybie niezatrzaskowy pracy dioda świeci się tylko w chwili dostępu do dysku (jest to normalna funkcja diody LED). Jeśli kontroler ma zworkę przełączającą opisane funkcje, możliwe jest sterowanie zachowaniem diody świecącej. W komputerach z twardym dyskiem zamkniętym w obudowie komputera, płyta czołowa dysku jest niepotrzebna. Co więcej, zamontowana płyta może przeszkadzać w prawidłowym mocowaniu dysku, więc należy ją wtedy usunąć. Jeśli instalowany dysk twardy nie ma ramki, szyn lub płyty czołowej, a takowe są potrzebne do zamontowania go w obudowie komputera
Cechy dysków twardych Aby przy zakupie dysku twardego podjąć optymalną decyzję, bądź aby zrozumieć różnice między poszczególnymi modelami dysków twardych, należy wziąć pod uwagę wiele czynników. W tej części rozdziału są omówione następujące zagadnienia związane z oceną dysku: • niezawodność, • szybkość, • mocowanie przeciwwstrząsowe, • cena.
Niezawodność Przy zakupie dysku można zauważyć, że w broszurach podawana jest wartość parametru MTBF (średni czas między awariami). Jego wartości najczęściej mieszczą się w zakresie od 20 000 do ponad 500 000 godzin. Liczby te można w zasadzie zignorować, gdyż nie są to wartości oparte na rzeczywistych badaniach statystycznych, lecz jedynie wartości teoretyczne. Większość dysków z bardzo dużymi wartościami tego parametru nie jest nawet tak długo produkowana. Jeden rok o pięciodniowym tygodniu pracy i ośmiogodzinnym dniu roboczym ma 2 080 godzin pracy. Gdyby dysk w komputerze pracował 24 godziny na dobę, 365 dni w roku, przepracowałby 8 760 godzin rocznie, co oznacza, że dysk twardy o średnim czasie bezawaryjnej pracy 500 000 godzin powinien wytrzymać (przeciętnie) 57 lat! Oczywistym jest, że liczba ta nie pochodzi z rzeczywistych statystyk, ponieważ czas bezawaryjnej pracy żadnego dysku nie zbliżył się nawet do połowy postulowanej średniej. Aby statystycznie określić rzeczywistą wartość parametru MTBF, należałoby wykorzystać próbną partię dysków twardych, włączyć te dyski na czas przynajmniej dwukrotnie dłuższy od podanej wartości MTBF, po czym zbadać liczbę uszkodzonych dysków. Naprawdę dokładne wyniki można otrzymać dopiero po zepsuciu się wszystkich dysków i zmierzeniu czasu pracy każdego z nich. Po uśrednieniu wyników całej partii dysków otrzyma się rzeczywisty średni czas bezawaryjnej pracy. Przy podawanym czasie 500 000 godzin (obecnie powszechnie spotykanym), próbna partia dysków powinna pracować przez co najmniej milion godzin (114 lat); mimo to czas bezawaryjnej pracy dysku jest podawany w dniu wprowadzenia go na rynek. Przede wszystkim chodzi o to, że parametr MTFB nie ma tak istotnego znaczenia. Niektóre z najsłabszych dysków mają bardzo duże wartości tego parametru, a dyski bardzo dobre wartości małe. Dlatego średni czas bezawaryjnej pracy nie zawsze decyduje o jakości dysku i nie należy przykładać do niego większego znaczenia.
Wydajność Podczas wyboru dysku twardego ważną cechą, którą należy brać pod uwagę, jest wydajność (szybkość) dysku. Zakres możliwości dysków twardych jest bardzo szeroki. Podobnie jak w przypadku wielu innych rzeczy, jednym z najlepszych wskaźników względnej wydajności dysku jest jego cena. Stosowne jest tu stare powiedzenie związane z wyścigami samochodowymi: „Szybkość kosztuje. Jak szybko chcesz pojechać?". Szybkość dysku można mierzyć na dwa sposoby: • średnim czasem wyszukiwania ścieżek, • szybkością transferu danych. Średni czas wyszukiwania (ścieżek) jest mierzony w milisekundach (ms) i określa czas potrzebny na przesunięcie głowic z bieżącego cylindra na inny, przypadkowo wybrany cylinder. Sposobem na zmierzenie tego parametru jest wykonanie pomiaru czasu wielu operacji przesunięcia głowic na przypadkowo wybraną ścieżkę i podzielenie wyniku przez liczbę wykonanych operacji. Otrzymany wynik jest średnim czasem wyszukiwania ścieżek. Standardowym sposobem na zmierzenie tego czasu, stosowanym przez producentów dysków, jest zbadanie czasu potrzebnego na przesunięcie głowic nad jedną trzecią całkowitej liczby cylindrów. Średni czas wyszukiwania ścieżek zależy wyłącznie od typu dysku twardego. Rodzaj kontrolera i interfejsu ma znikomy wpływ na jego wartość. Parametr ten jest miarą możliwości mechanizmu głowic. Nie należy się zbytnio przejmować wynikami podawanymi przez programy testujące średni czas wyszukiwania ścieżek dysku. Większość dysków IDĘ i SCSI wykorzystuje mechanizm translacji sektorów że nie wszystkie polecenia zmiany cylindra wywołują rzeczywisty ruch głowic. Skutkiem tego, wyniki testów są często mylne. Ponadto w przypadku dysków SCSI, polecenie przesunięcia głowic wysyłane jest najpierw do kontrolera SCSI, co wydłuża czas dostępu mierzony przez programy testujące. Mierzony czas jest wtedy czasem, w ciągu którego mechanizm głowic przesunie je nad 1/3 ścieżek, powiększonym o czas potrzebny na przesłanie polecenia do odpowiednich urządzeń. Zatem, mimo iż dyski te mogą mieć najkrótsze czasy dostępu, z powodu nie uwzględniania przez większość programów testujących czasu potrzebnego na przesłanie polecenia do kontrolera, uzyskane za pomocą tych programów wyniki będą dużo gorsze Nieco inny parametr, średni czas dostępu, obejmuje dodatkowy element zwany czasem oczekiwania (lub czasem zwłoki). Czas oczekiwania jest średnim czasem (podawanym w milisekundach) potrzebnym na uzyskanie dostępu do sektora po osiągnięciu ścieżki przez głowice. Przeciętnie czas ten jest równy połowie czasu trwania jednego obrotu talerzy, który przy prędkości 3600 obrotów na minutę wynosi 16,66 ms, co daje czas dostępu około 8,33 ms. Dysk o dwukrotnie większej prędkości obrotowej ma o połowę krótszy czas oczekiwania. Średni czas dostępu jest sumą średniego czasu wyszukiwania ścieżek i czasu oczekiwania. Jego wartość określa przeciętny czas potrzebny na uzyskanie dostępu do przypadkowo wybranego sektora. Czas oczekiwania jest istotnym parametrem związanym z wydajnością odczytu i zapisu dysku. Skrócenie tego czasu zwiększa szybkość dostępu do danych lub plików i może być osiągnięte jedynie przez zwiększenie prędkości obrotowej talerzy. Dysk twardy o prędkości 4318 obrotów na minutę ma czas oczekiwania 6,85 ms. Niektóre dyski mają prędkość obrotową talerzy przekraczającą 7200 obrotów na minutę, co pozwala na osiągnięcie czasu oczekiwania rzędu 4,17 ms.
Oprócz skrócenia czasu dostępu do danych, większa prędkość obrotowa poprawia również szybkość transmisji (transferu) informacji po dotarciu głowic do odpowiednich sektorów. Szybkość transferu danych jest prawdopodobnie najważniejszym parametrem związanym z wydajnością dysku. Określa on szybkość, z jaką dysk i kontroler mogą wysyłać dane do komputera. Szybkość transferu zależy przede wszystkim od mechanizmu dysku, a tylko pośrednio od kontrolera. Dawniej szybkość transferu była ograniczona możliwościami kontrolera, co przejawiało się poprawą osiągów starych dysków podłączonych do nowszych kontrolerów. Sytuacja ta przyczyniła się do opracowania techniki prze-plotu sektorów. Termin przeplot odnosi się do kolejności ułożenia sektorów w taki sposób, aby nie leżały one jeden za drugim. Dzięki temu wolniejszy kontroler nadąża z odczytywaniem kolejnych sektorów, nie gubiąc ich. Kontrolery wbudowane we współczesne dyski mogą swobodnie nadążać za wewnętrzną szybkością transferu dysku. Innymi słowy, nie trzeba już stosować przeplotu sektorów, spowalniającego transfer danych dla kontrolera. Innym zagadnieniem związanym z wydajnością jest przepustowość interfejsu, która w przypadku dysków IDĘ lub SCSI znacznie przekracza możliwości dysków twardych. Trzeba uważać na przytaczane szybkości transferu interfejsu, gdyż mogą one mieć niewielki związek z rzeczywistymi możliwościami dysku. Interfejs dysku twardego jedynie ogranicza teoretyczną maksymalną szybkość transferu danych; rzeczywista granica szybkości transferu zależy od dysku i kontrolera. W dyskach starszych, wyposażonych w interfejs ST-506/412, wymiana kontrolera mogła przyśpieszyć transfer danych dwu-, a nawet trzykrotnie, ponieważ wiele starszych kontrolerów nie potrafiło obsłużyć przeplotu 1:1. Po zmianie kontrolera na zdolny do obsługi tego przeplotu, szybkość transferu dorównywała rzeczywistym możliwościom dysku. Aby obliczyć rzeczywistą szybkość transferu dysku, konieczna jest znajomość kilku istotnych parametrów. Najważniejsze z nich to rzeczywista prędkość obrotowa talerzy (w obrotach na minutę) i średnia liczba sektorów na ścieżce. Słowo „średnia" pochodzi stąd, że większość współczesnych dysków wykorzystuje zapisywanie strefowe, w którym liczba sektorów na ścieżkach zewnętrznych jest inna niż na ścieżkach wewnętrznych. Szybkość transferu takich dysków jest największa podczas odczytu ze ścieżek zewnętrznych, które mają najwięcej sektorów. Należy również pamiętać, że większość dysków (a zwłaszcza te z zapisywaniem strefowym) dokonuje translacji sektorów, przez co podawana przez BIOS liczba sektorów na ścieżce nie ma wiele wspólnego z rzeczywistością. Potrzebna jest znajomość rzeczywistych parametrów dysku, a nie podawanych przez BIOS Jeśli parametry te są znane, do obliczenia maksymalnego transferu danych, mierzonego w milionach bitów na sekundę (Mb/s), wykorzystuje się następujący wzór: Maksymalny transfer (Mb/s) = SĘK x 512 bajtów x OBR / 60 sekund / l 000 000 bitów (SĘK - liczba sektorów na ścieżce, OBR - liczba obrotów na minutę) Na przykład, w dysku ST-12551N o pojemności 2 GB talerze wirują z prędkością 7200 obrotów na minutę i mają średnio po 81 sektorów na ścieżce. Zatem maksymalny transfer danych wynosi: 81 x 512 x 7 200/60/l 000 000 = 4,98 Mb/s Za pomocą powyższego wzoru można obliczyć maksymalny obsługiwany transfer danych dla każdego dysku.
Programy i kontrolery buforujące Na poziomie oprogramowania znaczny wpływ na wydajność dysku mogą mieć takie programy buforujące, jak SMARTDRV (DOS) lub VCACHE (Windows 95). Programy te wykorzystują przerwanie BIOS-u dysku twardego do przechwytywania poleceń odczytu i zapisu do BIOS-u dysku, pochodzących od aplikacji i sterowników urządzeń systemu DOS. Gdy program wysyła polecenie odczytu z dysku twardego, program buforujący prze-chwytuje żądanie odczytu i przekazuje je do kontrolera dysku w sposób standardowy, zapisuje odczytane dane w buforze cache, a następnie przesyła te dane do programu. Ilość zapisywanych w buforze sektorów zależy od wielkości bufora cache. Gdy aplikacja chce odczytać następne dane, program buforujący (cache) znów przechwytuje jej żądanie i sprawdza, czy potrzebne dane znajdują się w jego buforach. Jeśli tak, dane te są natychmiast przekazywane z powrotem do aplikacji, bez ponownego uruchamiania dysku twardego. Jak można sobie wyobrazić, ta metoda ogromnie skraca czas dostępu i może w znaczący sposób wpłynąć na wyniki pomiaru wydajności dysku. Większość kontrolerów ma dziś wbudowany jakiś rodzaj sprzętowego bufora czy podręcznej pamięci cache, która nie przechwytuje ani nie używa żadnego przerwania BIOS-u. Zamiast tego buforowanie odbywa się na poziomie sprzętowym i jest niezauważalne dla zwykłych programów mierzących wydajność dysku. Bufory służące do odczytywania ścieżek z wyprzedzeniem były pierwotnie umieszczane w kontrolerach, w celu uzyskania przeplotu 1:1. W niektórych kontrolerach wielkość tych buforów została powiększona, podczas gdy w innych dodano do nich „inteligencję" (odpowiednie algorytmy - przyp. tłum.), zmieniając zwykłe bufory w bufory cache Wiele dysków IDĘ i SCSI posiada pamięć podręczną cache, wbudowaną bezpośrednio w dysk. Na przykład dysk Seagate Hawk 4 GB, na którym zapisuję ten rozdział, ma 512kB wbudowanej pamięci podręcznej cache. Inne dyski mają wbudowane nawet więcej pamięci tego rodzaju, na przykład Seagate Barracuda 4 GB z l MB integralnej pamięci cache. Nie tak dawno nie każdy komputer mógł poszczycić się 640 kB pamięci RAM, a teraz malutki standardowy dysk twardy 3,5-cala ma wbudowaną większą jej ilość! Integralna pamięć cache to jedna z głównych przyczyn, dla których większość dysków IDĘ i SCSI tak dobrze się spisuje. Jednak, mimo że sprzętowe i programowe bufory cache mogą przyśpieszyć działanie dysku w standardowych operacjach przesyłania, nie będą one miały wpływu na rzeczywistą maksymalną prędkość transferu danych, jaką określony dysk jest w stanie obsługiwać.
Wybór przeplotu W dyskusji na temat wydajności dysku zawsze pojawia się sprawa przeplotu. Chociaż tradycyjnie dotyczyła ona bardziej wydajności kontrolera niż samego dysku, większość nowoczesnych dysków twardych ma dziś wbudowane kontrolery (IDĘ i SCSI), które są w pełni zdolne do odbierania danych z dysku z taką szybkością, z jaką dysk jest w stanie je wysyłać. Innymi słowy, praktycznie wszystkie nowoczesne dyski IDĘ i SCSI są sformatowane bez przeplotu (co czasem określa się jako formatowanie z przeplotem 1:1).
Przesunięcie głowicy i cylindra Większość kontrolerów może dziś przesyłać dane z przeplotem 1:1. W szczególności dotyczy to kontrolerów wbudowanych w dyski IDĘ i SCSI. Kontroler o przeplecie 1:1 pozwala na utrzymanie maksymalnej prędkości przesyłania danych podczas odczytu i zapisu sektorów na dysk. Mogłoby się wydawać, że nie ma już innego sposobu na dalszą poprawę wydajności i prędkości przesyłania, jednak często nie zwraca się uwagi na dwa istotne czynniki, podobne do przeplotu, takie jak przesunięcie głowicy i cylindra.
Kiedy dysk odczytuje (lub zapisuje) dane sekwencyjnie, najpierw odczytywane są wszystkie sektory na danej ścieżce. Następnie dysk musi się elektronicznie przełączyć do następnej głowicy w cylindrze, aby móc kontynuować operację. Jeżeli pomiędzy poszczególnymi głowicami w cylindrze nie występuje przesunięcie sektorów, po ostatnim sektorze danej ścieżki, a przed pierwszym sektorem następnej nie występuje żadne opóźnienie. Ponieważ wszystkie napędy potrzebują trochę czasu (mimo że bardzo mało, to jednak trochę) na przełączenie się z jednej głowicy na inną, a kontroler również dorzuca do tej operacji pewną stałą wartość, to zanim dysk będzie gotowy do odczytu sektorów na nowo wybranej ścieżce, najprawdopodobniej pierwszy jej sektor minie już ' głowicę. Poprzez przesunięcie sektorów między głowicami, to znaczy obrót ich układu na ścieżce w taki sposób, by pojawienie się pierwszego sektora było opóźnione w porównaniu do poprzedniej ścieżki, można być pewnym, że podczas przełączania głowic nie będzie potrzebny żaden dodatkowy obrót dysku. Metoda ta zapewnia maksymalną możliwą prędkość przesyłania przy korzystaniu z przełączania głowic. Analogicznie, sporo czasu pochłania przeniesienie głowic z jednego cylindra nad drugi. Jeżeli sektory w jednym z cylindrów nie są przesunięte w stosunku do tych, które znajdują się w poprzednim, sąsiednim cylindrze, najprawdopodobniej zanim nad pierwszym sektorem pojawi się głowica, sektor ten znajdzie się już daleko z przodu. Do rozpoczęcia odczytu z nowego cylindra potrzebny więc będzie dodatkowy obrót dysku. A tak, dzięki przesunięciu sektorów pomiędzy kolejnymi cylindrami, uwzględniającemu czas przesuwania głowicy z cylindra do cylindra, można uniknąć czekania na dodatkowy obrót dysku.
Przesunięcie głowicy Przesunięcie głowicy to przesunięcie w numeracji sektorów logicznych pomiędzy tymi samymi sektorami fizycznymi na dwóch ścieżkach znajdujących się pod sąsiednimi głowicami tego samego cylindra. Przesunięcie o pewną liczbę sektorów służy, podczas przełączania się z głowicy do głowicy w tym samym cylindrze, zrekompensowaniu czasu potrzebnego na przełączenie głowicy i komunikację z kontrolerem. Metoda ta pozwala na ciągły odczyt i zapis, mimo zmiany głowicy, bez straty żadnego obrotu dysku, przyczyniając się w ten sposób do maksymalnego wzrostu wydajności systemu. Aby zrozumieć przesunięcie głowicy, należy najpierw znać porządek, w jakim ścieżki i sektory są czytane z dysku. Wyobraźmy sobie dysk z jednym talerzem (dwoma głowicami), 10 cylindrami i 17 sektorami na ścieżce. Pierwszym sektorem na całym dysku, który zostanie odczytany, będzie: cylinder O, głowica O, sektor l. Następnie zostaną odczytane wszystkie pozostałe sektory na pierwszej ścieżce (cylinder O, głowica 0), aż do zakończenia odczytu sektora 17. Następnie może zostać podjęta jedna z dwóch następujących czynności: • Głowice mogą zostać przesunięte, tak aby napęd mógł kontynuować odczytywanie następnej ścieżki po tej samej stronie talerza. • Do odczytu całej kolejnej ścieżki może zostać wybrana druga głowica, co nie wiąże się z poruszaniem głowic. Ponieważ ruch głowicy zajmuje o wiele więcej czasu niż elektroniczne wybranie innej głowicy, we wszystkich dyskach najpierw kolejno wybierane są głowice znajdujące się nad danym cylindrem, a dopiero potem zostają one fizycznie przesunięte do następnego cylindra. Tak więc kolejnym sektorem, który zostanie odczytany w naszym przykładzie, będzie: cylinder O, głowica l, sektor l. Następnie odczytane będą kolejno wszystkie sektory na tej ścieżce (od 2 do 17), a potem w naszym przykładowym, jedno talerzowym dysku przyjdzie czas na przesunięcie głowic. Ta sekwencja czynności będzie powtarzana, aż do odczytania ostatniego sektora na ostatniej ze ścieżek - w tym przykładzie jest to: cylinder 9, głowica l, sektor 17.
Gdyby dla tego przykładu można było zdjąć ścieżki z cylindra i ułożyć je jedna na drugiej, ścieżki wyglądałyby następująco: Cylinder O, głowica 0: 1-2-3-4-5-6-7-8-9-10-11-12-13-14-15-16-17 Cylinder O, głowica l: 12-3-4-5-6-7-8-9-10-11-12-13-14-15-16-17 Po odczytaniu wszystkich sektorów przez głowicę O, kontroler włącza głowicę l i kontynuuje czytanie (zaczynając od początku ścieżki). W tym przykładzie nie występuje przesunięcie sektorów pomiędzy głowicami, co oznacza, że sektory znajdują się bezpośrednio jeden pod drugim w danym cylindrze Niech talerze w tym przykładzie obracają się z prędkością 3600 RPM, wtedy pojedynczy sektor przesuwa się pod głowicą co 980 milionowych sekundy! Jest to oczywiście bardzo niewielki przedział czasu. Natomiast przełączenie głowicy zajmuje chwilę (zazwyczaj 15 milionowych sekundy), a do tego dochodzi jeszcze stały czas potrzebny kontrolerowi do przekazania polecenia przełączenia głowicy. Zanim więc zakończy się przełączanie głowicy i jest ona gotowa do czytania nowej ścieżki, sektor l już ją minie! Problem ten jest podobny do problemu przeplatania, gdy przeplot jest zbyt niski. Dysk musi czekać, podczas gdy talerz dokonuje kolejnego obrotu, aby głowica mogła rozpocząć czytanie ścieżki, od sektora l. Problem ten można łatwo rozwiązać: wystarczy po prostu przesunąć numerację sektorów na kolejnych ścieżkach w stosunku do ścieżek je poprzedzających, tak by uwzględniony został czas potrzebny na przełączenie głowicy oraz komunikację z kontrolerem. W ten sposób po zakończeniu czytania sektora 17 przez głowicę O i przełączeniu odczytu na głowicę l, sektor l znajdzie się pod nią we właściwym czasie. Rezultat wygląda mniej więcej tak: Cylinder O, głowica 0: 1-2-3-4-5-6-7-8-9-10-11-12-13-14-15-16-17 Cylinder O, głowica l: 16-17-1-2-3-4-5-6-7-8-9-10-11-12-13-14-15 Przesunięcie drugiej ścieżki o dwa sektory pozwala zyskać tyle czasu, ile potrzeba go na przełączenie głowicy, i oznacza, że współczynnik przesunięcia głowic wynosi 2. W praktyce dysk przełącza głowice o wiele częściej niż robi to z cylindrami, co sprawia, że przesunięcie głowic jest o wiele ważniejsze niż przesunięcie cylindrów. Odpowiednie dobranie przesunięcia głowic może spowodować znaczny wzrost poziomu transferu danych. Rożne wartości przesunięcia głowic mogą wyjaśniać różnice w prędkości przesyłania danych pomiędzy dyskami o tej samej liczbie sektorów na ścieżce i tym samym przeplecie. Dysk MFM bez zastosowania przesunięcia może na przykład zapewniać transfer rzędu 380 kB/s, podczas gdy dla dysku z przesunięciem głowic o wartości 2 mogłaby ona wzrosnąć do 425 kB/s. Należy pamiętać, że dla różnych kontrolerów i dysków stały czas potrzebny na przełączenie głowicy może być różny, tak więc rzeczywiste wyniki będą się różniły w każdym przypadku. Czas ten jest jednak zwykle bardzo krótki w porównaniu do czasu potrzebnego na komunikację z kontrolerem. Biorąc pod uwagę obie składowe opóźnienia, warto, tak samo jak w przypadku przeplotu, ustawić większe przesunięcie, które pozwoli uniknąć czekania na dodatkowe obroty dysku.
Przesunięcie cylindra Przesunięcie cylindra to przesunięcie w numeracji sektorów logicznych pomiędzy tymi samymi sektorami fizycznymi znajdującymi się na dwóch sąsiednich ścieżkach dwóch sąsiednich cylindrów. Przesunięcie o pewną liczbę sektorów służy zrekompensowaniu czasu potrzebnego na odszukanie odpowiedniej ścieżki podczas przełączania się z jednego cylindra do następnego. W gruncie rzeczy wszystkie sektory na sąsiednich ścieżkach są poprzesuwane względem siebie. Metoda ta pozwala na ciągły odczyt i zapis, niezależnie od zmienianych w tym czasie cylindrów, bez utraty ani jednego obrotu dysku, przyczyniając się w ten sposób do maksymalnego wzrostu wydajności systemu.
Wartość liczbowa współczynnika przesunięcia cylindra jest większa niż przesunięcia głowicy, gdyż przesunięcie głowicy z jednego cylindra do drugiego zajmuje więcej czasu niż proste przełączenie głowic. Również czas potrzebny kontrolerowi jest dłuższy w przypadku zmiany cylindra niż w przypadku przełączania głowic. Poniżej przedstawiony jest nasz przykładowy dysk ze współczynnikiem przesunięcia głowic równym 2 (ścieżki) i przesunięciem cylindra równym 8 (ścieżek): Cylinder O, głowica 0: l-2-3-4-5-6-7-8-9-10-li-12-13-14-15-16-17 Cylinder O, głowica l: 1617-1-2-3-4-5-6-7-8-9-10-11-12-13-14-15 Cylinder l, głowica l: 8-9-10-11-12-13-14-15-1617-1-2-3-4-5-6-7 Przesunięcie sektorów w kolejnych cylindrach o osiem sektorów daje dyskowi i kontrolerowi czas na przygotowanie do odczytu sektora l w następnym cylindrze i eliminuje dodatkowy obrót dysku.
obliczanie współczynników przesunięcia Prawidłową wartość współczynnika przesunięcia głowic można obliczyć korzystając z następujących informacji oraz wzoru: Przesunięcie głowic = (czas przełączenia głowicy / okres obrotu) x SĘK + 2 gdzie SĘK liczba sektorów na ścieżce Innymi słowy, czas przełączenia głowicy jest dzielony przez czas potrzebny do pojedynczego obrotu, mnożony przez liczbę sektorów na ścieżce, a 2 jest dodawane ze względu na stałe opóźnienie kontrolera. Rezultat powinien być zaokrąglony do najbliższej liczby całkowitej (na przykład: 2,3 = 2; a 2,5 = 3). Prawidłową wartość współczynnika przesunięcia cylindra można obliczyć korzystając z następujących informacji oraz wzoru: Przesunięcie cylindra = (czas zmiany ścieżki (na sąsiednią) / okres obrotu) x SĘK + 4 Innymi słowy, średni czas przejścia głowicy na sąsiednią ścieżkę jest dzielony przez czas potrzebny na pojedynczy obrót. Wynik jest mnożony przez liczbę sektorów na ścieżce, a 4 jest dodawane ze względu na stałe opóźnienie kontrolera. Rezultat powinien być zaokrąglony do najbliższej liczby całkowitej (na przykład: 2,3 = 2; a 2,5 = 3). Poniższy przykład wykorzystuje typowe wartości dla dysku i kontrolera ESDI. Jeśli czas przełączenia głowicy wynosi 15 u.s (mikrosekund), czas zmiany ścieżki - 3 ms, okres obrotu 16,67 ms (3600 RPM), a dysk ma 53 sektory fizyczne na ścieżkę, to: Przesunięcie głowicy = (0,015/16,67) x 53 + 2 = 2 (po zaokrągleniu) Przesunięcie cylindra = (3/16,67) x 53 + 4 = 14 (po zaokrągleniu) W przypadku braku informacji potrzebnych do przeprowadzenia obliczeń, należy skontaktować się z producentem dysku twardego w celu uzyskania odpowiednich wskazówek. W przeciwnym razie można przeprowadzić obliczenia korzystając z ostrożnie przyjętych wartości podanych dla czasu przełączenia głowicy i czasu dostępu do ścieżki. Jeśli nie mamy pewności, tak jak w przypadku przeplotu, lepiej przyjąć wartości zwiększające wielkość obliczanego przesunięcia, zmniejszając w ten sposób możliwość wystąpienia dodatkowych obrotów podczas sekwencyjnego odczytywania informacji z dysku. W większości przypadków dobrze sprawdza się standardowe ustawienie przesunięcia głowicy równe 2, a cylindra - równe 16.
Ponieważ takie czynniki, jak czas komunikacji z kontrolerem, mogą być różne w zależności od modelu, niekiedy jedynym sposobem na określenie najbardziej odpowiedniej wartości przesunięcia jest eksperymentowanie. Można wypróbować różne wartości przesunięcia, a następnie przetestować szybkość transferu danych i określić, które wartości dają najlepsze rezultaty. Jednakże w przypadku testów należy zachować ostrożność -bowiem wiele programów mierzących szybkość dysku twardego podczas testu odczytuje i zapisuje dane tylko na jednej ścieżce lub cylindrze, co zupełnie eliminuje wpływ efektu przesunięcia na wyniki. Do testowania najlepiej wykorzystać takie programy testujące, które odczytują i zapisują na dysku duże pliki (aby przesunięcie było uwzględniane). Większość prawdziwych (na poziomie rejestru kontrolera dysku) niskopoziomowych programów do formatowania ma możliwość ustawienia współczynników przesunięcia. Te programy, które są dostarczane przez producenta dysku lub producenta kontrolera, zazwyczaj są już zoptymalizowane pod kątem konkretnych dysków oraz kontrolerów i mogą nie pozwalać na zmianę przesunięcia. Jednym z najlepszych znanych mi programów formatujących ogólnego przeznaczenia działających na poziomie rejestru, który umożliwia ustawianie wartości przesunięć, jest Disk Manager firmy Ontrack. Gorąco polecam ten program użytkownikom postawionym przed koniecznością formatowania niskopoziomowego dysku. Zwykle nie polecam programów typu Norton Callibrate czy Gibson Spinrite do wykonania ponownego przeplotu dysków, ponieważ programy te pracują tylko przy użyciu funkcji przerwania BIOS-u INT 13h, a nie bezpośrednio z osprzętem kontrolera dysku, w wyniku czego nie potrafią ustawić najbardziej odpowiednich wartości współczynników przesunięcia. Zatem korzystanie z nich może spowolnić pracę dysku o optymalnie ustawionym przeplecie i współczynniku przesunięcia. Należy zauważyć, że w większości dysków IDĘ i SCSI współczynniki przeplotu oraz przesunięcia są optymalnie ustawione przez producenta. W większości przypadków nie ma nawet możliwości zmiany tych wartości, jeśli natomiast jest to możliwe, najbardziej prawdopodobnym rezultatem będzie zmniejszenie szybkości dysku. Z tego powodu większość producentów dysków IDĘ sprzeciwia się niskopoziomowemu formatowaniu ich dysków. W przypadku niektórych dysków IDĘ, jeśli nie korzysta się z dobrego oprogramowania, można doprowadzić do zmiany optymalnych ustawień przesunięć i w ten sposób spowolnić działanie dysku. Dyski IDĘ stosujące zapisywanie strefowe są przed powyższym w pełni zabezpieczone w ten sposób, że zmiana współczynników przeplotu i przesunięcia nie jest w ogóle możliwa. Niezależnie od sposobu formatowania takich dysków, wartości te pozostają niezmienione. To samo odnosi się do dysków SCSI.
Zabezpieczenia przeciwwstrząsowe Zespół głowic dysku (HDA) w większości produkowanych obecnie dysków twardych jest zabezpieczony przed wstrząsami poprzez umieszczenie gumowej podkładki pomiędzy dyskiem twardym a ramą montażową HDA. Niektóre dyski posiadają grubszą podkładkę niż inne, ale w sumie zabezpieczenie jest zabezpieczeniem. Zespół głowic w niektórych dyskach nie jest zabezpieczony przed wstrząsami z powodu fizycznych lub finansowych ograniczeń. Upewnij się, że dysk, z którego korzystasz, posiada odpowiednie zabezpieczenia przeciwwstrząsowe dla zespołu HDA, zwłaszcza jeśli używany jest w komputerze przenośnym lub w środowisku o warunkach mniej korzystnych niż w przeciętnym biurze. Zazwyczaj nigdy nie polecam dysków twardych, które nie posiadają żadnej formy zabezpieczenia przeciw wstrząsowego.
Koszt Koszt przestrzeni dyskowej obniżył się ostatnio do 30 groszy za megabajt lub mniej. Dyski o pojemności 4 GB można kupić za mniej niż 600 zł. Tak więc wartość dysku o pojemności 10 MB, który kupiłem w 1983 roku, wynosi 3 złote (szkoda, bo wtedy zapłaciłem za niego równowartość 5000 złotych). Oczywiście, koszt dysków twardych ciągle spada i w końcu nawet cena 10 centów za megabajt będzie się wydawała wysoka. Z powodu niskiej ceny pamięci dyskowej w chwili obecnej, produkuje się niewiele dysków o pojemności poniżej l GB.
Pojemność W marketingu do określania pojemności dysku powszechnie stosuje się cztery liczby: • pojemność dysku nie sformatowanego określaną w milionach bajtów (M), • pojemność dysku sformatowanego określaną w milionach bajtów (M), • pojemność dysku nie sformatowanego określaną w megabajtach (MB), • pojemność dysku sformatowanego określaną w megabajtach (MB). Obecnie większość producentów dysków twardych IDĘ i SCSI podaje tylko pojemność dysku sformatowanego, ponieważ dyski te są dostarczane już sformatowane. Większość informacji odnosi się do pojemności dysku sformatowanego lub nie sformatowanego określanej w milionach bajtów, ponieważ ta liczba jest większa niż ta sama pojemność dysku wyrażona w megabajtach. Sytuacja taka powoduje wiele zamieszania, zwłaszcza wtedy, gdy użytkownik skorzysta z programu FDISK (który podaje całkowitą pojemność dysku twardego w megabajtach). Niektórzy próbują nawet odzyskać utraconą w wyniku formatowania resztę dysku. Pytanie „Co się stało z resztą dysku?" jest jednym z najczęściej zadawanych podczas moich seminariów. Na szczęście odpowiedź jest prosta - potrzeba do tego tylko nieco matematyki Proszę rozważyć następujący przykład: „Właśnie zainstalowałem nowy dysk twardy Western Digital AC2200, o pojemności 212 MB. Kiedy wprowadziłem parametry dysku (989 cylindrów, 12 głowic, 35 sektorów na ścieżkę), zarówno standardowy program konfigurujący BIOS-u, jak i FDISK podają, że dysk ma pojemność 203 MB! Co stało się z brakującymi 9 MB?" Od odpowiedzi dzieli nas jedynie kilka prostych obliczeń. W wyniku pomnożenia parametrów specyfikacji dysku twardego otrzymujemy rezultat: Cylindry: 989 Głowice: ścieżkę: 35 Liczba bajtów na sektor: M Razem megabajtów: 202,82 MB
12 Liczba sektorów na 512 Razem bajtów: 212,67
Otrzymana w wyniku obliczeń pojemność wynosi 212,67 miliony bajtów lub 202,82 megabajty. Producenci dysków twardych z reguły podają pojemność w milionach bajtów, podczas gdy BIOS i program FDISK — w megabajtach. Jeden megabajt jest równy l 048 576 bajtów (lub l 024 kB, gdzie każdy kilobajt wynosi l 024 bajty). Stąd też ostatnia linijka, wedle której przykładowy dysk o pojemności 212,67 MB ma także pojemność 202,82 MB! To, co powoduje naprawdę wiele zamieszania, to fakt, że nie istnieje powszechnie zaakceptowany sposób rozróżniania megabajtów binarnych od dziesiętnych. Oficjalnie posiadają one jednakowy skrót MB, więc często trudno jest określić, która z wielkości jest podawana. Zazwyczaj producenci dysków twardych podają megabajty metryczne, ponieważ uzyskuje się przez to większe, bardziej imponująco brzmiące cyfry! Dysk twardy, który posłużył za przykład, jest dyskiem używającym nagrywania strefowego, w związku z czym jego rzeczywiste, fizyczne parametry różnią od podanych.
Fizycznie dysk ten posiada 1971 cylindrów i cztery głowice -jednakże całkowita liczba sektorów na dysku (a więc i pojemność) jest taka sama niezależnie od tego, w jaki sposób zmieniły się poszczególne parametry. Mimo że firma Western Digital dla tego modelu dysku nie podaje pojemności dysku nie sformatowanego, wielkość ta z reguły jest o około 19 procent większa od pojemności dysku sformatowanego. Dysk twardy Seagate ST-12550N Barracuda 2 GB na przykład jest reklamowany jako dysk o następujących pojemnościach: Pojemność dysku nie sformatowanego: 2 572,00 M Pojemność dysku nie sformatowanego: 2 452,85 MB Pojemność dysku sformatowanego: 2 139,00 M Pojemność dysku sformatowanego: 2039,91 MB Każda z podanych liczb stanowi właściwą odpowiedź na pytanie: „Jaka jest pojemność tego dysku?" Jednakże, jak widać, liczby te różnią się od siebie. W rzeczywistości można użyć jeszcze innej wielkości. W tym celu należy podzielić 2 039,91 MB pojemności dysku przez l 024, w wyniku czego otrzymujemy pojemność dysku równą 1,99 GB! Tak więc porównując lub omawiając pojemności dysków twardych, należy się posługiwać jednakową jednostką miary, w przeciwnym razie porównania nie będą miały sensu.
Szczegółowe wskazówki Osobom, które chciałyby dodać do systemu komputerowego dysk twardy, podaję kilka wskazówek. Co do interfejsu dysku twardego, są tylko dwa typy warte rozważenia: • IDĘ (Integrated Drive Electronics) • SCSI (Smali Computer System Interface) Interfejs SCSI oferuje duże możliwości rozbudowy, kompatybilność między różnymi platformami, duże pojemności, dobre osiągi oraz elastyczność. Interfejs IDĘ jest mniej kosztowny niż SCSI i także zapewnia rozwiązania dające bardzo wysokie osiągi, ale możliwości rozbudowy, kompatybilność, pojemności i elastyczność są mniejsze niż w przypadku SCSI. Z drugiej strony, większości osób polecam zwykle interfejs IDĘ, ponieważ nie będą one korzystały z więcej niż dwóch dysków jednocześnie, a także prawdopodobnie nie będą potrzebowały interfejsu SCSI dla innych urządzeń. SCSI oferuje pewien dodatkowy potencjał możliwych osiągów w przypadku wielowątkowych. systemów operacyjnych typu Windows NT czy OS/2, ale IDĘ równoważy tę przewagę krótszym czasem komunikacji pośredniej. Należy zauważyć, że obecnym standardem interfejsu IDĘ jest ATA-2 (AT Attachment), nazywany także Fast ATA-2 lub Enhanced IDĘ. SCSI-2 to obecny standard interfejsu SCSI, natomiast SCSI-3 wciąż jest w fazie projektów.
Rozdział 15. Interfejsy dysków twardych W niniejszym rozdziale opisany jest interfejs dysku twardego i wszystkie elementy z nim związane: od napędu, poprzez kable, do kontrolerów nimi sterujących. Informacje tu zawarte przybliżają wady i zalety każdego z dostępnych typów interfejsów, przez co powinny pomóc w wyborze najbardziej odpowiadającego potrzebom.
Rodzaje interfejsów Na rynku dostępnych jest wiele różnych interfejsów. W miarę upływu czasu możliwości wyboru stale się rozszerzają, a wiele rozwiązań, które jeszcze wczoraj były uważane za niezastąpione, dziś nie jest już stosowana w nowoczesnych systemach. Jednak wiedza na temat wszystkich rodzajów interfejsów przyda się na pewno w trakcie modernizowania lub naprawiania systemu. Interfejsy mają różnego rodzaju ustawienia i różne jest ich okablowanie; także dyski twarde są w różny sposób konfigurowane i formatowane. Przyczynia się to do powstawania różnorakich problemów, zwłaszcza w przypadku instalowania wielu różnych interfejsów w jednym systemie. Niniejszy rozdział omawia wiele interfejsów napędów dysków twardych, podając przy tym wszelkie niezbędne do ich obsługi informacje dotyczące rozwiązywania problemów, serwisowania, modernizowania, a nawet łączenia dysków różnego rodzaju w jednym systemie. W rozdziale tym opisane są również standardowe typy kontrolerów, sposoby efektywnego ich obsługiwania oraz wymiany na nowsze i szybsze ich wersje. Omawiane są również różne rodzaje interfejsów dysków ST-506/412, ESD1, IDĘ oraz SCSI. Wybór odpowiedniego rodzaju interfejsu jest ważny, gdyż wpływa na zakup napędu dysku twardego i stateczną szybkość podsystemu dysku. Podstawowym zadaniem kontrolera dysku twardego jest wysyłanie danych do dysku i odbieranie ich z niego. Rodzaj interfejsu określa szybkość przenoszenia danych z dysku do systemu i umożliwia różne poziomy wydajności. Jeśli wydajność systemu jest dla Ciebie sprawą najważniejszą, dowiedz się, w jaki sposób poszczególne rodzaje interfejsów na nią wpływają i jakich efektów możesz się spodziewać. Wiele danych statystycznych znajdujących się w czasopismach komputerowych nie odzwierciedla faktycznej wydajności, która będzie decydować o komforcie pracy z komputerem. Niniejszy rozdział pomaga rozwiać mity tworzone przez wiele hurra-optymistycznych danych i opracowań. Jeśli chodzi o napędy dysków, a zwłaszcza dysków twardych, charakterystyką, do której zwykle przywiązuje się największą wagę, jest średni czas wyszukiwania - średni czas niezbędny do przesunięcia głowic z jednej ścieżki nad inną. Niestety, znaczenie tej charakterystyki jest wyolbrzymiane, zwłaszcza w porównaniu z innymi właściwościami, takimi jak szybkość transferu danych. Szybkość transferu danych pomiędzy napędem i systemem jest ważniejsza niż czas dostępu, ponieważ większość dysków twardych potrzebuje więcej czasu do odczytania i zapisania informacji niż do przesunięcia głowic nad odpowiednią ścieżkę. Szybkość, z jaką ładowany lub odczytywany jest plik, najlepiej oddawana jest więc przez wskaźnik szybkości transferu danych. Napędy o krótszym czasie szukania szybciej wykonują jedynie operacje wymagające częstego wyszukiwania, takie jak sortowanie dużych plików, które wymaga częstego dostępu dynamicznego do indywidualnych rekordów pliku.
Jednak większość normalnych operacji zapisu i odczytu zależy w największym stopniu od szybkości, z jaką dane mogą być do pliku zapisywane i z niego odczytywane. Szybkość transferu danych zależy w związku z tym zarówno od napędu, jak i interfejsu. Niektóre rodzaje interfejsów napędów dysków stosowane w komputerach PC ostatnimi laty, to: Spośród tych dysków, jedynie ST-506/412 oraz ESDI to prawdziwe interfejsy dysk-kontrolernapęd. SCSI oraz IDĘ to interfejsy poziomu systemowego, których częścią jest chipowa wersja któregoś z dwu wcześniejszych interfejsów. Na przykład większość napędów SCSI oraz IDĘ używa tego samego układu kontrolującego, co kontrolery ESDI. Interfejs SCSI do połączenia kontrolera z szyną systemu używa dodatkowej łączącej warstwy interfejsu, podczas gdy IDĘ łączy je bezpośrednio. Warto znać rodzaj używanego interfejsu, zwłaszcza podczas odzyskiwania danych, gdyż wiele procesów odzyskiwania danych wiąże się z ponowną instalacją oraz rekonfiguracja ustawień napędu. Każdy interfejs wymaga odpowiedniej metody instalacji i konfiguracji napędu. Jeśli użyta metoda jest nieodpowiednia albo nawet odpowiednia, lecz przypadkowo zmieniona przez użytkownika, może to uniemożliwić dostęp do danych znajdujących się na dysku. Oczywistym jest wobec tego, że każdy, kto chciałby efektywnie przeprowadzać odzyskiwanie danych, powinien świetnie opanować instalowanie i konfigurowanie różnych rodzajów dysków twardych i ich kontrolerów Wprowadzając standardy przemysłowe dla interfejsów, firma IBM umożliwiła kompatybilność interfejsów różnych systemów i producentów. Dzięki temu, dziś możemy wziąć do ręki katalog wysyłkowy i zamówić najtańszy z oferowanych dysków, wiedząc, że będzie on współpracował z naszym systemem. W rezultacie owej możliwości bezproblemowego podłączania napędów różnych producentów, mamy dziś możliwość szerokiego wyboru pomiędzy bogatymi ofertami różniącymi się, między innymi, pod względem pojemności.
Interfejs ST-506/412 Interfejs ST-506 /412 został zaprojektowany przez firmę Seagate Technologies około roku 1980. Początkowo interfejs został wprowadzony na rynek w napędzie Seagate ST-506, o pojemności 6 MB przed sformatowaniem i 5 MB po sformatowaniu, pełnej wysokości oraz średnicy 5,25 cala. W roku 1981 Seagate wprowadziła napęd ST-412, w którym do istniejącego interfejsu została dodana funkcja buforowanego szukania. Napęd ten, mimo że nieco pojemniejszy - po sformatowaniu miał pojemność 10 MB (nie sformatowany -12 MB) według dzisiejszych standardów jest już zabytkiem klasy zerowej. Oprócz Seagate ST-412, IBM używał w komputerach klasy XT również takich napędów jak Miniscribe 1012 oraz International Memories, Inc. (IMI) model 5012. O firmach IMI oraz Miniscribe nikt już dziś nie pamięta, a Seagate pozostaje jednym z największych producentów dysków. Od czasów komputerów XT, Seagate dostarcza napędy do olbrzymiej liczby systemów różnych producentów. Większość producentów dysków dla systemów PC przyjęło standard Seagate ST-506/412, co przyczyniło się do popularności tego interfejsu. Jedną z jego najważniejszych właściwości jest zastosowanie w nim technologii Pług and Play. Zainstalowanie napędu tego typu nie wymaga użycia żadnego specjalnego okablowania ani wprowadzania żadnych modyfikacji, co oznacza, że każdy napęd ST-506/412 będzie współpracował z każdym kontrolerem ST506/412. Jedynym zagadnieniem, które może wymagać dopracowania w przypadku interfejsu tego typu, jest poziom wspomagania BIOS-u przez komputer. Obsługa BIOS-u w chwili wprowadzenia go do przemysłu komputerowego przez IBM w roku 1983, była realizowana przez chip BIOS-u znajdujący się na płycie kontrolera. Wbrew ogólnej opinii, płyty główne komputerów PC oraz XT nie miały wbudowanej obsługi dysków twardych.
Dopiero w komputerach klasy AT, IBM przeniósł obsługę interfejsu ST-506/412 z kontrolera do BIOS-u płyty głównej. Od tamtej pory każdy system kompatybilny z IBM AT (czyli prawie każdy dostępny dziś na rynku) zawiera w BIOS-ie płyty głównej udoskonaloną wersję tej samej obsługi interfejsu. Ponieważ obsługa ta, zwłaszcza w starszych wersjach BIOS-u, była dosyć ograniczona, wielu producentów kontrolerów dysków twardych umieszczało dodatkową BIOS-ową obsługę tych kontrolerów bezpośrednio na ich płytkach. W zależności od potrzeb można było używać wspólnie BIOS-ów płyty głównej oraz kontrolera albo wyłączyć jeden z nich i posługiwać się pozostałym. Interfejs ST-506/412 jednak nieco odstaje od dzisiejszych systemów komputerowych o wysokiej wydajności. Został bowiem zaprojektowany do współpracy z napędami o pojemności 5 MB i nie spotkałem jeszcze napędu o pojemności większej niż 152 MB (kodowanie MFM) lub 233 MB (kodowanie RLL), który współpracowałby z interfejsem tego typu. Ze względu na to, że pojemność, wydajność i elastyczność ST-506/412 jest tak ograniczona, interfejs ten nie jest już spotykany w nowszych systemach. Wczesne systemy używają jednak w większości tego interfejsu.
Schematy kodowania i związane z nim problemy Jak zostało to przedstawione w rozdziale 14. w punkcie „Schematy kodowania danych", schematy kodowania używane są podczas procesów komunikacji do konwertowania bitów danych cyfrowych na różne tony używane do transmisji danych przy użyciu linii telefonicznych. W przypadku dysków cyfrowe bity są konwertowane - kodowane - do postaci impulsów magnetycznych, czyli odwróceń strumienia zapisywanego na dysku. Odwrócenia strumienia są następnie dekodowane podczas odczytywania danych z dysku. Konwertowanie do postaci odwróceń strumienia podczas zapisu na nośniku, jak również ponowna konwersja do postaci danych cyfrowych są wykonywane za pomocą urządzenia o nazwie endec (encoder/decoder). Działanie endeca bardzo przypomina funkcjonowanie modemu (modulator/demodulator) z tego względu, że dane cyfrowe konwertowane są do postaci fali analogowej, konwertowanej następnie ponownie do postaci danych cyfrowych. Czasami endec nazywany jest separatorem danych, ponieważ separuje dane oraz impulsy zegarowe od pulsu odwróceń strumienia odczytywanego z dysku. Jednym z największych problemów interfejsu ST-506/412 był fakt umieszczenia endeca w kontrolerze napędu, a nie bezpośrednio w napędzie, co zwiększało możliwość zakłócenia analogowego sygnału danych przed dotarciem do nośnika. Problem ten stał się szczególnie widoczny po zastosowaniu schematu kodowania RLL, umożliwiającego zapisywanie na dysku o 50% więcej danych. Za pomocą kodowania RLL faktyczna gęstość odwróceń strumienia magnetycznego na nośniku napędu pozostaje ta sama, co w przypadku kodowania MFM, lecz okres pomiędzy odwróceniami musi być mierzony dużo dokładniej. W przypadku kodowania RLL, przedziały czasu pomiędzy kolejnymi odwróceniami strumienia są w przybliżeniu takie same, jak w przypadku kodowania MFM, lecz samo odmierzanie czasu pomiędzy nimi staje się dużo ważniejsze. W wyniku tego komórki odwróceń, w których sygnały muszą zostać rozpoznane, są dużo mniejsze i umieszczane są dużo dokładniej niż w przypadku kodowania o schemacie MFM. Kodowanie RLL kładzie dużo większy nacisk na zgranie czasowe kontrolera i elektroniki napędu. Oprócz tego, ze względu na to, że RLL nie koduje bitów pojedynczych, lecz grupy bitów o różnej liczbie, pojedynczy błąd w jednym z odwróceń może spowodować uszkodzenie od dwóch do czterech bitów danych. Z tego względu kontrolery RLL są wyposażone w dużo bardziej skomplikowany mechanizm wykrywania i korekcji błędów, niż kontrolery MFM.
Kanały transmisji danych w większości starszych napędów dysków nie były wystarczająco dokładne, aby bezbłędnie kodować w schemacie RLL. Kodowanie RLL jest przy tym o wiele bardziej podatne na zakłócenia sygnału odczytu, a tradycyjne pokrycia nośników z tlenków metali nie pozwalały na osiągnięcie stosunku poziomu sygnału do poziomu zakłóceń umożliwiającego bezbłędne kodowanie w schemacie RLL. Problem zwiększał się również ze względu na fakt, że wiele napędów w owym czasie używało w systemach pozycjonowania głowic notorycznie niedokładnych silników krokowych, co w większym jeszcze stopniu nasilało problem poziomu sygnału w stosunku do zakłóceń. Aktualnie producenci wprowadzają zwyczaj nadawania certyfikatów zgodności RLL napędom, których można używać z kontrolerami endec RLL. Pieczątka ma świadczyć o tym, ze napęd przeszedł test i że jest zaprojektowany w sposób umożliwiający spełnienie ścisłych wymogów kodowania RLL. W niektórych przypadkach napędy MFM i RLL różni jedynie elektronika napędu, a same napędy nie różnią się niczym. Tym bardziej, że jeśli do wersji RLL wprowadzone zostają jakiekolwiek poprawki umożliwiające spełnienie wymogów RLL, są one również wprowadzane do wersji MFM. W istocie bowiem modele MFM oraz RLL napędu ST-506/412 odróżnia jedynie większa precyzja tego drugiego. Jeśli chcesz używać napędu sprzedawanego jako MFM z kontrolerem RLL upewnij się wpierw, że dysk twardy posiada elektromagnetyczny napęd głowic, a jego talerze pokryte są nośnikiem cienkowarstwowym. W zasadzie wszystkie napędy ST-506/412 o takich własnościach potrafią obsługiwać kodowanie RLL bezproblemowo. Podczas używania kodowania MFM, standardowy format ST-506/412 określa, że na ścieżce będzie 17 sektorów, a każdy z nich zawierać będzie 512 bajtów danych. Kontroler używający endeca RLL podnosi liczbę sektorów na ścieżce do 25 lub 26. Docelowym rozwiązaniem problemów z jakością kodowania RLL jest umieszczenie endeca bezpośrednio w napędzie, a nie w kontrolerze. Powoduje to zmniejszenie podatności na zakłócenia i szumy, które są plagą napędów ST-506/412 wykorzystujących kodowanie RLL. Napędy ESDI, IDĘ oraz SCS1 mają endec (a często i cały kontroler) standardowo wbudowany w napęd. Ze względu na to, że endec jest połączony z dyskiem bez użycia kabla i znajduje się w niezmiernie małej odległości elektrycznej od niego, podatność na błędy impulsów zegarowych i szumów jest w znacznym stopniu redukowana lub eliminowana. O ile sytuację, gdy endec połączony jest z dyskiem poprzez kontroler oraz kable, można porównać do (kontrolowanej przez międzymiastową) rozmowy zamiejscowej, o tyle w przypadku ESDI, IDĘ oraz SCSI rozmowa pomiędzy endecem a talerzami dysku byłaby łączoną automatycznie rozmową telefoniczną. Lokalność komunikacji sprawia, że działanie interfejsów ESDI, IDĘ oraz SCSI jest pozbawione wielu błędów kojarzonych swego czasu z kodowaniem RLL przy użyciu interfejsu ST-506/412. Dziś w zasadzie wszystkie napędy ESDI, IDĘ oraz SCSI używają kodowania RLL z niezawodnością dużo większą niż ta, która charakteryzowała napędy MFM ST-506/412.
Notka historyczna Informacje podane poniżej dotyczą oryginalnych kontrolerów ST-506/412, używanych w środowisku PC. Kontrolery te były dostarczane z komputerami IBM XT oraz AT. Kontrolery te ustanowiły standardy, które - zwłaszcza w przypadku kontrolera AT - są nadal respektowane. Prawdę mówiąc, cały standard IDĘ oparty jest na kontrolerze, który IBM stosował w komputerach klasy AT. Wszystkie dziś używane konwencje i standard dla interfejsów dysków twardych wzięły swój początek od tego modelu. Oryginalne 8-bitowe kontrolery IBM
Pierwszym standardowym kontrolerem ST-506/412, sprzedawanym na rynku komputerów PC, był kontroler dysku twardego montowany w komputerach 10 MB IBM XT. Kontroler był faktycznie produkowany dla IBM przez Xebec Corporation i sprzedawany przez producenta pod nazwą Xebec 1210. Xebec 1210 był kontrolerem ST-506/412, który do zapisu danych na dysku używał kodowania MFM. Pamięć ROM kontrolera, produkowana przez IBM, zawierała 8-kilobajtowy BIOS dysku twardego z wewnętrzną tablicą, do której można było wpisać do czterech różnych napędów. Każdy z napędów wybierany był za pomocą złączek, które we wczesnych modelach IBM były zaspawane na stałe. Jeśli ten sam kontroler został zakupiony od firmy Xebec, posiadał nieznacznie zmienioną w porównaniu do IBM-owskiej, lecz w pełni z nią kompatybilną pamięć ROM, a złączki nie były zaspawane, więc z łatwością można było wybrać jedną z czterech pozycji tabeli BIOS. Xebec również umożliwił integratorom systemu kopiowanie swoich pamięci ROM w celu umożliwienia modyfikacji wbudowanych tablic dla określonych napędów. Późniejsze systemy IBM XT, wyposażone w 20-megabajtowy dysk twardy nadal używały kontrolera Xebec 1210, ale posiadały nową 4kilobąjtową pamięć ROM, zawierającą zarówno tablice napędów, jak i złączki - takie jak znajdujące się na wersjach sprzedawanych bezpośrednio przez Xebec. Xebec niestety nigdy nie sprzedawał automatycznie konfigurujących się wersji tego kontrolera, co ułatwiłoby integrowanie różnych napędów. Xebec 1210 jest najwolniejszym z kiedykolwiek wyprodukowanych kontrolerów ST-506/412, wspomagającym w najlepszym przypadku przeplot 5:1 w oryginalnych systemach IBM PC lub XT. Przy użyciu programu Advanced Diagnostics dla komputera IBM PC lub IBM XT, formater niskiego poziomu produkuje standardowy przeplot 6:1, w wyniku którego szybkość transferu danych wynosiła 85 kB/sek. Zmiana przeplotu na charakteryzujący się stosunkiem 5:1 umożliwia wyduszenie z kontrolera przesyłu danych z prędkością 102 kB/sek. niewyobrażalnie wolno jak na dzisiejsze standardy. Xebec wypuścił również model 1220, który składał się z kontrolera napędów dysków twardego i elastycznego, zachował kompatybilność sprzętową z modelem 1210 i współpracował z pamięcią ROM zarówno Xebec-a, jak i IBM-u. Osobny kontroler napędu dysków elastycznych mógł być następnie usunięty z systemu, dzięki czemu można było oszczędzić sporo pieniędzy Jeśli posiadasz kontroler tego rodzaju, zalecam zamianę go na kontroler samo konfigurujący się przy pierwszej okazji. Większość kontrolerów jest znacznie szybsza od kontrolera Xebec. Oryginalne 16-bitowe kontrolery IBM Komputery IBM AT używały dwóch kontrolerów produkowanych przez Western Digital (WD): WD1002-WA2 oraz WD1003A-WA2. WD1003 są udoskonalonymi wersjami WD1002 o znacznie mniejszej liczbie chipów. WD1003 był również krótszy niż WD1002, tak aby pasował do IBM XT 286. WD1002 jest używany z IBM AT jako kombinacja kontrolerów dysków twardego i elastycznego. WD1002 i WD1003 są standardowymi kontrolerami ST-506/412 obsługującymi kodowanie MFM. Żaden z tych kontrolerów nie ma pamięci ROM BIOSu, zamiast niej obsługa BIOS-u wbudowana jest w pamięć ROM płyty głównej. Oba kontrolery obsługują przeplot 2:1 nawet na standardowym 6-megahercowym systemie IBM AT. Narzędzie formatujące niskiego poziomu „IBM Advanced Diagnosti-cs" potrafi utworzyć przeplot 2:1, ale przeplotem standardowym jest 3:1. W wyniku sformatowania dysku z niższym poziomem przeplotu, większość użytkowników doświadczy poprawy wydajności pracy dysku.
Interfejs ESDI ESDJ, czyli Zaawansowany Interfejs Małych Urządzeń (Enhanced Smali Device Interface) jest interfejsem dysków twardych przyjętym jako standard w roku 1983 głównie przez firmę Maxtor Corporation. Firma Maxtor przekonała konsorcjum producentów napędów do przyjęcia swojego interfejsu jako wysoko wydajnego następcy ST-506/412. Standard ESDI został następnie przyjęty przez ANSI (Amerykański Instytut Standardów Narodowych American National Standards Institute) i opublikowany jako ANSI X3T9.2. Ostatnia wersja dokumentacji standardu ESDI została przez ANSI opatrzona nazwą X3.170a-1991. Dokument ten, tak jak wszystkie inne dokumentacje ANSI dotyczące standardów, możesz otrzymać bezpośrednio od ANSI lub od organizacji Global Engineering Documents. Dzięki umieszczeniu endeca w napędzie ESDI została znacznie zwiększona niezawodność. ESDI jest więc interfejsem o bardzo dużej szybkości, którego maksymalna szybkość transferu danych wynosi 24 Mbit/sek. Maksymalna prędkość transmisji danych w przypadku większości napędów używających ESDI jest jednak ograniczona do 10 lub 15 Mbit/sek. Niestety, problemy z kompatybilnością pomiędzy różnymi implementacjami ESDI oraz konkurencja ze strony tańszych i wydajniejszych interfejsów IDĘ spowodowała, że interfejsy ESDI stały się przestarzałe. Nie są już montowane w nowych systemach, mimo że jeszcze pod koniec lat 80. były często montowane w wysokowydajnych systemach. Poprawione polecenia umożliwiły niektórym kontrolerom ESD1 odczytywanie informacji dotyczących pojemności napędu bezpośrednio z dysku, jak również kontrolowanie mapowania uszkodzeń, lecz wielu producentów stosowało inne metody zapisu tych informacji na dysku. Po zainstalowaniu napędu ESD1, kontroler w wielu przypadkach automatycznie odczytuje informacje dotyczące parametrów oraz uszkodzeń, lecz w wielu przypadkach informacje te muszą być nadal, tak jak w przypadku napędów ST-506/412, wprowadzane ręcznie. Usprawnione polecenia mapowania uszkodzeń dostarczają komputerom PC standardowego sposobu odczytywania z napędu mapy uszkodzeń, co oznacza, że lista uszkodzeń sporządzona przez producenta może być zapisana na dysku jako plik. Lista taka jest następnie odczytywana przez kontroler i oprogramowanie formatowania niskiego poziomu, co eliminuje potrzebę ręcznego wprowadzania tych pozycji przy użyciu klawiatury i umożliwia programowi formatującemu aktualizowanie listy w przypadku znalezienia uszkodzeń dysku podczas formatowania niskiego poziomu lub analizy powierzchni dysku. Dyski napędów ESD1 są najczęściej formatowane do postaci 32 lub więcej sektorów na ścieżce (możliwe jest sformatowanie ponad 80 sektorów na ścieżce) - dużo więcej niż 17-26 sektorów w przypadku ST-506/412. Zwiększenie gęstości powoduje co najmniej dwukrotne zwiększenie szybkości transferu danych przy przeplecie 1:1. Prawie wszystkie kontrolery ESD1 obsługują przeplot 1:1, co umożliwia zwiększenie szybkości transferu danych do poziomu l Mbit/sek. Ze względu na podobieństwo pomiędzy nimi, interfejs ESD1 może zastąpić ST-506/412 bez potrzeby wprowadzania zmian w oprogramowaniu systemu. Większość kontrolerów ESD1 jest kompatybilna na poziomie rejestrów ze starszymi kontrolerami ST-506/412, co umożliwia bezproblemowe uruchamianie OS/2 i innych nie – DOS - owych systemów operacyjnych. Interfejs BIOS-u w pamięci ROM dla ESD1 jest prawie taki sam jak dla ST506/412, co sprawia, że wiele narzędzi formatowania niskiego poziomu, które można uruchomić na jednym z interfejsów, będzie również działać na drugim z nich. Aby jednak móc skorzystać z mapowania uszkodzeń i innych właściwych dla ESD1 funkcji, formatowanie niskiego poziomu oraz analiza powierzchni muszą być przeprowadzone za pomocą narzędzi zaprojektowanych dla ESD1 (takich jak wbudowane zwykle w BIOS pamięci ROM lub wywoływane za pomocą polecenia DEBUG).
Pod koniec lat osiemdziesiątych większość najlepszych systemów była wyposażona w napędy i kontrolery ESD1. Później zostały one zastąpione przez dyski i kontrolery SCSI. Interfejs SCSI jest dużo elastyczniejszy i umożliwia obsługę większej liczby rodzajów urządzeń niż interfejs ESD1 i oferuje większą wydajność. Nie polecam więc instalowania napędów ESD1, chyba że w ramach aktualizowania systemu już wyposażonego w kontroler ESD1.
Interfejs IDĘ IDĘ, czyli Zintegrowana Elektronika Napadu (Integrated Drive Electronics) jest terminem ogólnym, używanym na określenie każdego rodzaju napędu wyposażonego we wbudowany kontroler. Oficjalną nazwą dla interfejsu IDĘ jest ATA (AT Attachment), które jest równocześnie standardem ANSI. Można jednak za IDĘ uważać każdy napęd z wbudowanym kontrolerem. Pierwsze napędy ze zintegrowanymi kontrolerami nazywane były hardcards, dziś dostępnych jest wiele różnych napędów ze zintegrowanymi kontrolerami. W napędzie IDĘ kontroler dysku jest zintegrowany z napędem i dopiero ta kombinacja podłączana jest do portu na płycie głównej lub do odpowiedniej karty. Połączenie napędu i kontrolera znacznie ułatwia instalację, ze względu na to, że nie ma oddzielnych kabli zasilania ani sygnału, idących od kontrolera do napędu. Połączenie kontrolera i napędu umożliwia zmniejszenie liczby używanych elementów oraz skrócenie ścieżki sygnału i powoduje, że złącza elektryczne są bardziej odporne na szumy, czego efektem jest zwiększenie niezawodności w porównaniu do łączenia kontrolera z napędem za pomocą kabli. Umieszczenie kontrolera (wyposażonego w endec) w napędzie daje dyskom IDĘ przewagę nad interfejsami z osobnymi kontrolerami w postaci zwiększonej niezawodności. Niezawodność została poprawiona w wyniku tego, że kodowanie danych z postaci cyfrowej do analogowej odbywa się bezpośrednio w napędzie, w środowisku wolnym od zakłóceń; wrażliwe na częstość odwróceń informacje analogowe nie muszą więc być przesyłane kablami, dzięki czemu nie jest możliwe zniekształcenie ich przez szumy i zakłócenia oraz opóźnienia propagacji sygnału. Konfiguracja zintegrowana pozwala na zwiększenie częstotliwości pracy endeca oraz gęstości zapisu informacji na dysku. Zintegrowanie kontrolera z napędem zwalnia również projektujących je inżynierów z obowiązku stosowania się do ścisłych wymogów nakładanych przez starsze już standardy interfejsów. Inżynierowie mogą w dowolny sposób zaprojektować zarówno napęd, jak i kontroler, gdyż żaden inny kontroler nigdy nie będzie podłączony do projektowanego dysku. Dowolny sposób łączenia tych dwóch elementów umożliwia osiągnięcie większej wydajności. Złącze IDĘ na płytach głównych w wielu systemach jest właściwie obranym ze zbędnych elementów portem magistrali. W instalacjach ATA IDĘ, złącza te składają się z 40-pinowego podzbioru zbioru 98 pinów, które byłyby dostępne w przypadku standardowego 16-bitowego łącza ISA. Używane piny są jedynymi wymaganymi przez kontroler dysku twardego standardowego komputera typu XT lub AT. Ze względu na to, na przykład, że kontroler dysku w komputerach AT używa tylko linii przerwania numer 14, złącze AT IDĘ płyty głównej dostarcza tylko tej linii przerwania; żadna inna bowiem linia przerwań nie jest potrzebna. Złącze XT IDĘ płyty głównej natomiast dostarcza linii przerwania numer 5, gdyż tej jedynie wymaga kontroler XT. Wiele osób używających systemów ze złączami IDĘ na płytach głównych uważa, że kontroler dysku twardego jest wbudowany w płytę główną. Znajduje się on jednak w napędzie. Nie słyszałem o żadnym komputerze PC, który miałby kontroler wbudowany w płytę główną.
Podczas omawiania dysków IDĘ zwykle opisywane są jedynie dyski ATA IDĘ - ze względu na ich popularność. Warto jednak wiedzieć, że istnieją również inne rodzaje dysków oparte na innych typach magistrali. W wielu systemach PS/2 na przykład wykorzystywane były napędy MCA (Micro-Channel) IDĘ, które wpinane były do gniazda szyny Micro-Channel. Przez pewien czas była również w użyciu 8-bitowa odmiana IDĘ o nazwie ISA, ale ona również nigdy nie zyskała popularności. Większość kompatybilnych z IBM systemów z magistralą ISA lub EISA używa 16-bitowych napędów AT-Bus IDĘ. Interfejs ATA IDĘ jest obecnie zdecydowanie najpopularniejszym typem interfejsu Podstawową zaletą napędów jest koszt ich nabycia. Ze względu na brak osobnego kontrolera i związanych z tym dodatkowych złączy, napędy IDĘ kosztują dużo mniej niż -standardowy przed ich pojawieniem się - zestaw dysk-kontroler. Dzięki wbudowaniu kontrolera w napęd, są one również o wiele bardziej niezawodne. Również endec, czyli urządzenie konwertujące sygnały z postaci cyfrowej na analogową i na odwrót, dzięki temu znajduje się blisko nośnika informacji, co zmniejsza podatność konwertowanych sygnałów na zakłócenia i szumy zewnętrzne. Inną zaletą dysków IDĘ jest ich wydajność. Napędy IDĘ są jednymi z najbardziej wydajnych dysków. Należą one również do najmniej wydajnych dysków. Przyczyną tej pozornej niezgodności jest fakt, że dyski IDĘ różnią się od siebie znacznie, w związku z czym nie można opisać ich wszystkich za pomocą jednego tylko określenia. Początki IDĘ Technicznie, pierwsze napędy IDĘ były to tzw. hardcards. Firmy takie jak oddział Plus Development firmy Quantum wzięły małe (3,5 cala) napędy (albo ST-506/412 lub ESDI) i podłączyły je bezpośrednio do standardowego kontrolera. Taki zestaw był następnie podłączany do złącza magistrali w taki sam sposób, jak podłącza się każdą inną kartę kontrolera. Niestety, zamontowanie ciężkiego, wpadającego w wibracje dysku twardego w gnieździe rozszerzenia przy użyciu jednej tylko śruby nie stanowi najlepszego sposobu jego zamontowania. Do tego dochodzą jeszcze zakłócenia powodowane wzajemną bliskością kart, więc w sumie jest to nieudane rozwiązanie. Dlatego wiele firm postanowiło przeprojektować kontroler tak, aby mógł on zastąpić układ płytek logicznych znajdujących się na dysku oraz by tak utworzony zestaw można było następnie, jak każdy inny napęd, zamontować w zwykłej wnęce. Ze względu na to, że wchodzące w skład takich zestawów kontrolery nadal należało podłączać do gniazd rozszerzeń, pomiędzy napędem i słotami trzeba było poprowadzić kabel. Różne firmy decydowały się na różne sposoby łączenia tych urządzeń. Firma Compaq jako pierwsza wyposażyła kabel łączący w 98-pinowe złącze brzegowe ze strony płyty głównej i mniejsze, 40-pinowe, złącze ze strony napędu. Mniejsze z tego względu, że od początku wiadomo było, iż kontroler dysku nigdy nie będzie potrzebować więcej niż 40 linii magistrali. W 1987 roku, IBM wyprodukował własnej konstrukcji napędy MCA IDĘ, które podłączył do magistrali za pomocą kontrolera zwanego kartą interpozycji. Tego rodzaju kontrolery magistrali składały się jedynie z kilku chipów buforujących i nie wymagały montowania żadnych dodatkowych kabli zasilających, gdyż znajdujący się w napędzie kontroler łączony był bezpośrednio z magistralą. Innego rodzaju 8-bitowa wariacją na temat IDĘ pojawiła się w 8-bitowych systemach ISA, takich jak PS/2 Model 30. Interfejs XT IDĘ natomiast używa takiego samego 40-pinowego złącza oraz kabla, który przypomina jego wersję 16-bitową, lecz nie jest z nią kompatybilny
Rodzaje magistrali IDĘ Dostępne są trzy główne rodzaje interfejsów IDĘ, oparte na trzech głównych standardach magistrali: • AT Atachment (ATA) IDĘ (16-bitowa ISA) • XT IDĘ (8-bitowa ISA) • MCA IDĘ (16-bitowy Micro Channel) Wiele osób często myli 16- i 32-bitowe łącza magistrali z 16- i 32-bitowymi łączami dysków twardych. Złącze PCI pozwala na 32-bitową (64-bitową w przyszłości) szerokość pasma przesyłu danych jedynie od magistrali do kontrolera napędu. W napędach IDĘ (oraz EIDE) szerokość pasma transferu danych pomiędzy napędem i kontrolerem nadal wynosi jedynie 16 bitów. Nie powoduje to jednak powstawania zatorów, gdyż jeden ani nawet dwa dyski nie są w stanie dostarczyć takiej ilości informacji, jaka byłaby potrzebna do nasycenia kanału 16bitowego. Fast SCSI-3 stanowi jedyną kombinację urządzenie/kontroler, która umożliwia 32bitową komunikację od kontrolera do napędu, głównie ze względu na to, że do magistrali SCSI Wide można podłączyć do 15 urządzeń, w związku z czym istnieje możliwość przesycenia kanału 16-bitowego. Zarówno wersja XT, jak i ATA posiadają standardowe 40-pinowe złącza i kable, ale złącza mają nieznacznie zmieniony układ pinów, w związku z czym wersje te nie są wzajemnie kompatybilne. MCA IDĘ używa 72-pinowych złączy i jest zaprojektowana tylko do magistrali typu MCA. W większości przypadków rodzaj napędu IDĘ musi odpowiadać typowi magistrali systemu. Oznacza to, że napędy XT IDĘ mogą współdziałać tylko z systemami o 8-bitowych złączach ISA klasy XT, napędy AT IDĘ będą współpracować z systemami klasy AT o 16-bitowych złączach ISA lub E1SA, a napędy MCA IDĘ zadziałają jedynie z systemami Micro-Channel (takimi jak IBM PS/2 model 50 lub wyższy). Firma Silicon Valley oferuje karty kontrolerów do systemów XT, współpracujące z napędami ATA IDĘ. Inne firmy, takie jak Arco Electronics oraz Sigma Data, dostarczają adaptery umożliwiające korzystanie z napędów ATA IDĘ w systemach Micro Channel. Adaptery takie są użyteczne zwłaszcza w systemach XT oraz PS/2 ze względu na to, że wybór dysków typu XT lub MCA IDĘ jest dosyć ograniczony, podczas gdy różnorodność napędów ATA jest praktycznie nieograniczona. W większości nowoczesnych systemów ISA oraz EISA można znaleźć na płycie głównej złącze ATA. Jeśli na płycie głównej takiego złącza nie ma, a do systemu chcesz dołączyć napęd AT IDĘ, trzeba będzie kupić kartę adaptera zamieniającą złącze 98-pinowe na 40-pinowe złącze IDĘ. Karty takie to jedynie kable umożliwiające buforowanie - nie są to żadne, jak myślą niektórzy, kontrolery. Kontroler wbudowany jest bowiem w napęd. Niektóre karty oferują dodatkowe funkcje, takie jak wbudowany BIOS lub pamięć podręczną.
ATA IDĘ CDC, Western Digital oraz Compaq utworzyły coś, co można nazwać pierwszym napędem z interfejsem ATA IDĘ, i ustanowiły 40-pinowe złącze IDĘ. Pierwsze napędy ATA IDĘ były 40-megabajtowymi napędami CDC o średnicy 5,25 cala i połowie wysokości, wyposażonymi w kontrolery WD (Western Digital - przyp. tłum.), które weszły w skład komputerów Compaq 386 w 1986 roku. Następnie Compaq założył firmę Conner Peri-pherals, która miała ją zaopatrywać w dyski twarde. Z początku Conner produkował dyski wyłącznie dla firmy Compaq, ale z czasem większa część jego akcji została odsprzedana.
40-pinowe złącze IDĘ oraz interfejs napędu znalazły się w końcu przed komisjami standardów ANSI, które we współpracy z producentami rozwiązały niektóre problemy, dopracowały niedociągnięcia i opublikowały standard interfejsu CAM ATA (Common Access Meihod AT Attachment). Komitet CAM został utworzony w październiku 1988, a pierwsze dokumenty opracowano w marcu 1989 roku. Przed wprowadzeniem standardu CAM ATA, wiele firm realizujących technologię CDC (takich jak Conner Peripherals) wprowadziło do niej zmiany, które powodują, że wiele starszych dysków ATA bardzo trudno jest zintegrować w systemach dwudyskowych z drugim, nowszym dyskiem. Niektóre obszary standardu ATA pozostały otwarte dla specyficznych dla określonego producenta poleceń i funkcji. Te właśnie funkcje są powodem, dla którego tak trudno jest formatować niskopoziomowo dyski IDĘ. Aby operacja ta mogła zostać poprawnie przeprowadzona, narzędzie formatujące musi dokładnie znać specyficzne dla producenta polecenia, za pomocą których nagłówki sektorów są nadpisywane, a uszkodzenia mapowane. Niestety, polecenia te są różne dla różnych producentów, co zaciemnia nieco obraz „standardu". Warto pamiętać, że jedynie interfejs ATA IDĘ został przez przemysł ustandaryzowany. XT IDĘ oraz MCA IDĘ nigdy nie zostały zaakceptowane jako obowiązujące standardy i nigdy też nie stały się specjalnie popularne. Interfejsy te nie są już produkowane, w związku z czym żaden nowy komputer nie jest wyposażany w niestandardowy interfejs IDĘ.
Specyfikacja ATA Specyfikacja ATA została wprowadzona w marcu 1989 roku jako standard ANSI. ATA-1 zostało ostatecznie zaakceptowane w 1994 r., a ATA-2 (nazywana również Enhanced IDĘ rozszerzone IDĘ). Zaktualizowaną wersję tych standardów można otrzymać od firmy Global Engineering Documents. Standardy ATA przebyły, jak widać, daleką drogą w celu rozwiązania problemów towarzyszących pierwszym tego rodzaju interfejsom. Specyfikacja ATA definiuje sygnały 40-pinowego złącza, funkcje i prze działy czasowe takich sygnałów, określa wymagania co do kabli, itp. Punkt następny niniejszego rozdziału przedstawia niektóre z elementów i funkcji wymienionych w specyfikacji ATA.
Konfiguracje dwudyskowe Dwudyskowa konfiguracja może być powodem wielu problemów, jako że każdy z dysków jest wyposażony we własny kontroler i oba muszą funkcjonować na jednej magistrali. Należało więc wymyślić (i wymyślono) sposób zapewniający, że tylko jeden z tych dwóch kontrolerów będzie odpowiadał na określone polecenie. Standard ATA umożliwia podłączenie dwóch dysków do jednej magistrali. Dysk nadrzędny (dysk 0) nazywany jest master, a dysk podrzędny (dysk l) to slave. To, który dysk jest nadrzędny, a który podrzędny, użytkownik określa samodzielnie za pomocą zworki lub przełącznika znajdującego się na napędzie lub za pomocą specjalnej linii interfejsu o nazwie Cable select (CSEL). Jeśli zainstalowany jest tylko jeden dysk, kontroler odpowiada na wszystkie polecenia systemu. Gdy zainstalowane są dwa dyski (a zatem i dwa kontrolery), wszystkie polecenia systemu docierają do obu kontrolerów. Każdy kontroler musi być skonfigurowany tak, aby odpowiadał tylko na polecenia jego dotyczące. W tej sytuacji jeden z kontrolerów musi być określony jako nadrzędny, a drugi jako podrzędny Gdy system wysyła polecenie do jednego z dysków, drugi musi pozostać w spoczynku przez cały czas działania tego pierwszego. Zmiana pozycji zworki lub przełącznika powoduje zmianę specjalnego bitu (bitu DRV) w Rejestrze napędu/głowic bloku poleceń, dzięki czemu system może rozróżniać oba kontrolery podłączone do tej samej magistrali.
Złącze ATA 1/0 40-pinowe złącze interfejsu ATA powinno mieć blokadę uniemożliwiającą odwrotne włożenie kabla. Funkcję blokady spełnia usunięty pin 20 złącza napędu wraz z odpowiadającym mu pinem złącza kabla. Używanie blokowanych złączy i kabli jest szczególnie zalecane w związku z tym, że odwrotne osadzenie złącza kabla może spowodować zniszczenie układów zarówno napędu, jak i kontrolera (choć mnie osobiście wiele razy zdarzało się to uczynić po wielokroć bez -jak na razie - żadnych spalonych części.
Kabel wejścia-wyjścia 1/0 Transmisja danych pomiędzy obwodami kontrolera magistrali i kontrolera napędu odbywa się przy użyciu 40-żyłowego kabla równoległego. W celu poprawienia jakości sygnału oraz wyeliminowania potencjalnych problemów związanych z taktowaniem i szumami, długość kabla we/wy nie powinna przekroczyć 0,46 metra (18 cali). Jakość i długość kabla jest istotna szczególnie przy zastosowaniu najnowszych i najszybszych standardów komunikacji. Zbyt długi kabel często prowadzi do problemów z transmisją. W moim przyborniku zawsze znajduje się specjalna, krótka i wysokiej jakości taśma (kabel równoległy) IDE do testowania systemów, w których podejrzewam właśnie ten rodzaj usterek.
Sygnały ATA W niniejszym punkcie szczegółowo omawiam zagadnienia dotyczące najistotniejszych sygnałów. Pin 20 jest pinem blokującym i jako taki nie jest połączony z interfejsem. Pina tego nie powinno być w żadnym złączu ATA, a w złączu kabla nie powinno być dziurki, do której pin taki mógłby pasować, co uniemożliwia odwrotne połączenie kabla ze złączem. Pin 39 przenosi sygnał DASP (ang. Drive Active/S!ave Present), który jest sygnałem czasowo-multipleksowanym o podwójnym zastosowaniu. Podczas inicjowania urządzeń przeprowadzanego zaraz po włączeniu zasilania, wskazuje on, czy napęd podrzędny (slave) jest obecny na interfejsie. Następnie zgłasza się każdy z zainstalowanych napędów. Starsze napędy nie potrafią multipleksować tych funkcji i do współpracy z innymi napędami wymagają specjalnych ustawień zworek. Jedną z właściwości standardu ATA jest znormalizowanie tej funkcji, co umożliwia zainstalowanie dwóch napędów. Pin 28 przenosi zarówno sygnał CSEL (Cable Select), jak i sygnał SPSYNC (Spindle Synchronization), co wskazuje na to, iż jest on przewodnikiem o podwójnym zastosowaniu.
W określonym ustawieniu dostępna jest jednak tylko jedna z dwóch funkcji. Funkcja CSEL posiada najszersze zastosowanie i została zaprojektowana w celu kontrolowania oznaczenia napędu jako nadrzędnego (napęd 0) lub podrzędnego (napęd l), z pominięciem wymogu ustawiania zworek na napędach. Jeżeli napęd widzi sygnał CSEL jako uziemiony, to pracuje jako napęd nadrzędny (master), jeśli natomiast sygnał CSEL jest otwarty, napęd pełni funkcję napędu podrzędnego (slave). W celu selektywnego uziemienia sygnału CSEL można zainstalować specjalne okablowanie, składające się z kabla Y zaopatrzonego w złącze magistrali IDĘ na wyprowadzeniu środkowym i złącza napędów na przeciwległych wyprowadzeniach kabla. Jedno wyprowadzenie kabla Y z linią CSEL zamkniętą określa podłączony za jego pośrednictwem napęd jako nadrzędny. Linia CSEL drugiego wyprowadzenia jest wtedy otwarta, więc napęd umieszczony na końcu tego wyprowadzenia jest napędem podrzędnym.
Tabela 15.1.Złącze ATA
Nazwa sygnału
Pin
Pin
Nazwa sygnału
-RESET
l
2
masa
Bit danych 7 Bit danych 6
3 5
4 6
Bit danych 8 Bit danych 9
Bit danych 5
7
8
Bit danych 10
Bit danych 4
9
10
Bit danych 11
Bit danych 3
11
12
Bit danych 12
Bit danych 2
13
14
Bit danych 13
Bit danych l
15
16
Bit danych 14
Bit danych 0
17
18
Bit danych 15
masa
19
20
klucz (brak pina)
DRQ3
21
22
masa
-IOW
23
24
masa
-IOR
25
26
masa
I/O CH RDY
27
28
SPSYNC:CSEL
-DACK 3
29
30
masa
IRQ 14
31
32
-IOCS16
Bit adresu l
33
34
-PDIAG
Bit adresu 2
35
36
Bit adresu 2
-CSTFX
37
38
-CS3FX
-DA/SP
39
40
masa
+5 Vdc (logiczny)
41
42
+5Vdc (silnik)
masa
43
44
-TYPE (0=ATA)
Polecenia AT Jednym z ważniejszych udogodnień interfejsu ATA IDĘ jest rozszerzony zestaw poleceń. Interfejs ten został zaprojektowany w oparciu o kontroler WD 1003, zastosowany przez IBM w pierwszym komputerze AT. Wszystkie napędy ATA IDĘ muszą obsługiwać oryginalny zestaw WD ośmiu poleceń, dzięki czemu napędy ATA IDĘ są dziś tak łatwe do zainstalowania na dowolnym komputerze. Wszystkie systemy kompatybilne z IBM posiadają wbudowaną warstwę ROM BIOS dla WD 1003, co oznacza, że wszystkie one obsługują również interfejs ATA IDĘ. Specyfikacja ATA nie tylko udostępnia wszystkie polecenia WD 1003, ale również dodaje wiele innych poleceń, co podnosi wydajność i możliwości systemu. Polecenia te są dodatkową częścią interfejsu ATA, choć stosowane są w większości napędów, poprawiając ogólną wydajność napędu ATA. Najważniejszym, prawdopodobnie, poleceniem jest identify Drive. Wydanie tego polecenia powoduje przesłanie przez napęd 512-bajtowego bloku danych, który dostarcza wszystkich szczegółów na temat napędu. Dzięki temu poleceniu dowolny program (w tym również system BIOS) ma możliwość rozpoznania typu podłączonego napędu, producenta, numeru modelu, wartości parametrów operacyjnych, a nawet numeru seryjnego napędu. W wielu nowych BIOS-ach informacje te są wykorzystywane w celu automatycznego wprowadzenia parametrów napędu do pamięci CMOS, co eliminuje potrzebę wstukiwania ich ręcznie w czasie konfigurowania systemu. Uniemożliwia to błędne wprowadzenie parametrów podczas konfigurowania systemu, w przypadku gdy użytkownik nie pamięta już ich wartości, co może prowadzić do utraty danych. Dane identyfikacyjne napędu dostarczają wielu informacji na jego temat, takich jak: • Liczba cylindrów w zalecanym (domyślnym) trybie translacji, • Liczba głowic w zalecanym (domyślnym) trybie translacji, • Liczba sektorów przypadająca na ścieżkę w zalecanym (domyślnym) trybie translacji, • Liczba cylindrów w bieżącym trybie translacji, • Liczba głowic w bieżącym trybie translacji,
Rozbudowa i naprawa komputerów PC • Liczba sektorów przypadająca na ścieżkę w bieżącym trybie translacji, • Numer producenta i modelu, • Numer rewizyjny oprogramowania firmware, • Numer seryjny, • Typ bufora, informujący o możliwościach buforowania dynamicznego. W celu przedstawienia tych informacji na ekranie, możliwe jest wykonanie tego polecenia przy pomocy wielu powszechnie dostępnych programów. Zwykle zalecam używanie programów IDEINFO lub 1DEDIAG. Programy te są szczególnie przydatne podczas instalacji napędu IDĘ, gdy należy podać parametry typu user-definable BIOS-u. Wspomniane programy pobierają te informacje bezpośrednio z napędu. Program IDEINFO jest dostępny na stronie: http://www.dc.ee/Files/Utills/IDEINOF.ARJ
Natomiast 1DEDIAG można skopiować ze strony: http://www.pcorner.com/tpc/old/24-151.html Dwa inne bardzo istotne polecenia to Read Multipie i write Multiple. Pozwalają one na wielosektorowe transfery danych, co w połączeniu z trybem blokowym programowalnego we/wy (PIO) umożliwia przyśpieszenie transferu do poziomu nieporównywalnego z transferem PIO o pojedynczych sektorach. Jeśli chcesz uzyskać maksymalną możliwą wydajność systemu wyposażonego w interfejs IDĘ, upewnij się, że BIOS płyty głównej oraz adapter IDĘ obsługują ATA-2 lub EIDE. Obsługa ta pozwala BIOS-owi na wykonywanie dużo szybszych transferów danych do sterownika IDĘ i od niego, jak również przyczynia się do łatwiejszej instalacji i konfiguracji, ponieważ BIOS będzie zdolny do automatycznego wykrycia parametrów napędu. Zarówno układ PIO o dużej prędkości, jak i automatyczne rozpoznawanie typu napędu zostały uwzględnione w większości ostatnich wersji BIOS-ów komputerów PC. Istnieje również wiele innych zaawansowanych opcji, włącznie z miejscem pozostawionym na specyficzne polecenia producenta. Polecenia te są często używane do wykonywania zadań specyficznych dla określonego producenta. Za pomocą poleceń specyficznych kontrolowane są często takie funkcje jak formatowanie niskopoziomowe i zarządzanie uszkodzeniami. Z tej właśnie przyczyny programy formatowania niskopoziomowego mogą być właściwe dla napędów określonego producenta i większość producentów szeroko je udostępnia.
Kategorie napędów ATA IDĘ Napędy ATA IDĘ można podzielić na trzy główne kategorie. • Nieinteligentne napędy ATA-1DE, • Inteligentne napędy ATA-1DE, • Inteligentne napędy ATA-1DE zapisujące strefowo. Kategorie te rozróżniają napędy ze względu na funkcje (jak np. możliwości translacji) oraz sposób zaprojektowania (mogący wpływać na takie funkcje jak formatowanie niskopoziomowe).
Nieinteligentne IDĘ Jak już wcześniej wspomniałem, standard ATA wymaga, aby wbudowany kontroler odpowiadał dokładnie tak, jak gdyby był kontrolerem WD 1003, który z kolei odpowiada na zestaw 8 poleceń. Wczesne napędy IDĘ obsługiwały często jedynie te podstawowe polecenia. Przypominały one bardziej dawne napędy z demontowanymi do nich kontrolerami ST506/412 lub ESDI niż napędy inteligentne, za jakie dziś uważa się IDĘ. Napędów tych nie uważa się za napędy inteligentne. Inteligentne napędy posiadają kilka funkcji, których wczesnym napędom IDĘ brakuje. Napędy te nie obsługiwały rozszerzonego zakresu poleceń określonego jako dodatkowa (opcjonalna) część specyfikacji ATA IDĘ, w którym mieści się m.in. polecenie identify drive. Napędy te nie obsługiwały również translacji sektorów, która umożliwia takie przedstawienie parametrów fizycznych, aby były ukazane jako dowolna kombinacja logicznych cylindrów, głowic i sektorów. Te wczesne napędy nie obsługiwały rozszerzonego zbioru poleceń ani translacji sektorów, które stanowią o tym, czy napęd można nazwać inteligentnym. Napędy te można było formatować dokładnie tak samo, jak każdy inny napęd ST-506/412 lub ESDI. Zwykle były one formatowane niskopoziomowo przez producenta z fabrycznie obliczonym optimum przeplotu (najczęściej 1:1) oraz współczynnikami przesunięcia głowic i cylindrów.
Podobnie uszkodzenia wykryte jeszcze na linii produkcyjnej były oznaczane w specjalnym obszarze dysku, a nie na nalepce przyklejanej na zewnątrz obudowy. Niestety, taki układ powodował, że ewentualne sformatowanie niskopoziomowe obszaru z tymi informacjami powodowało zmianę ustawień, których optymalne wartości (zwłaszcza współczynników przesunięcia głowic i cylindrów) były tam zapisane, oraz usunięcie fabrycznie naniesionej tablicy z wykrytymi uszkodzeniami. Niektórzy producenci, jednak nie wszyscy, opublikowali sposoby formatowania niskopoziomowego umożliwiające zachowanie tych ustawień. Niektórzy tego jednak nie uczynili, w związku z czym, aby uniknąć możliwości nadpisania listy uszkodzeń i spowolnienia działam." dysku, większość producentów radziła, by nigdy nie formatować niskopoziomowo ich dysków IDĘ. Informacja ta stała się przyczyną mitu głoszącego, że dyski mogłyby zostać w jakiś sposób uszkodzone w wyniku formatowania niskiego poziomu, co całkowicie mija się z prawdą. Jedna z pogłosek mówi, że mogą w ten sposób zostać nadpisane informacje dla serwomechanizmu, w którym to wypadku jedynym sposobem odzyskania dysku byłoby odesłanie go do producenta w celu ponownego naniesienia serwoinformacji. Pogłoska ta jest oczywiście nieprawdziwa: informacje serwomechanizmu są chronione przed zapisem i jako takie nie mogą zostać zmienione. Jedyną (choć wcale nie błahą) konsekwencją niepoprawnego formatowania niskopoziomowego dysku jest możliwość zmiany współczynników przesunięcia oraz ewentualna utrata fabrycznej mapy uszkodzeń dysku. Program Disk Manager firmy Ontrack jest najlepszym dla tego rodzaju dysków specjalistycznym narzędziem formatowania, jako że zna te typy dysków i potrafi odtworzyć zmienione wartości przesunięć. Jeśli podczas formatowania nastąpiło nadpisanie tabeli zawierającej mapę uszkodzeń, Disk Manager może przeprowadzić bardzo szczegółową analizę, podczas której zaznaczy wszelkie tego rodzaju miejsca. Program ten umożliwia określenie współczynników przesunięcia i oznaczenie uszkodzeń na poziomie sektorów, co pozwala na uniknięcie podobnych problemów w przyszłości. Innym godnym polecenia, ogólno diagnostycznym programem obsługującym napędy IDĘ jest Microscope firmy Micro 2000.
Inteligentne IDĘ Następnymi napędami IDĘ, które pojawiły się na rynku, są inteligentne napędy IDĘ. Napędy te obsługują rozszerzony zestaw poleceń ATA, takich jak identify Drive, i umożliwiają translację sektorów. Napędy te mogą być konfigurowane na dwa sposoby: w trybie fizycznym i trybie translacji. Aby skonfigurować napęd w trybie fizycznym, podczas konfiguracji systemu należy wprowadzić takie parametry CMOS napędu, które odpowiadają jego fizycznym właściwościom. Jeśli, na przykład, napęd składa się z 800 cylindrów, 6 głowic i 50 sektorów na ścieżkę, takie właśnie dane należy wprowadzić podczas konfigurowania. Aby skonfigurować dysk w trybie translacji, należy wprowadzić taką liczbę cylindrów, głowic i sektorów, jaka w sumie daje faktyczną lub mniejszą liczbę sektorów. Napęd podany w przykładzie ma 240 000 sektorów (800x6x50). Należy więc podać taką liczbę cylindrów, głowic i sektorów, która po przemnożeniu daje 240 000 lub mniej sektorów. Najprościej więc dwukrotnie zmniejszyć liczbę cylindrów i dwukrotnie zwiększyć liczbę głowic. Wtedy napęd miałby 400 cylindrów, 12 głowic i 50 sektorów na ścieżkę. W ten sposób można uzyskać 240 000 sektorów, co umożliwia pracę napędu w trybie translacji.
Gdy napęd pracuje w trybie translacji, formatowanie niskiego poziomu nie może spowodować zmiany współczynników przeplotu i przesunięcia ani nie może nadpisać fabrycznie wprowadzonej informacji o uszkodzonych sektorach. Przy użyciu formatowania niskiego poziomu można jednak, w trybie translacji, przeprowadzić dodatkowe mapowanie błędów. Jeśli napęd działa w trybie fizycznym, formatowanie niskiego poziomu może spowodować nadpisanie nagłówków sektorów i zmienić wartości przesunięcia głowic i sektorów. Jeśli formatowanie zostało przeprowadzone poprawnie, odpowiedni program formatowania niskopoziomowego umożliwia przywrócenie poprawnych wartości przesunięć. Czynność ta może być przeprowadzona automatycznie za pomocą oprogramowania polecanego przez producenta napędu lub za pomocą innych programów (polecanych przez autorów książek przyp. tłum.), takich jak Disk Manager firmy Ontrack. Jeśli używasz Disk Managera, wartości przesunięć musisz ustalić samodzielnie, inaczej program zastosuje wartości domyślne. Najwłaściwsze wartości przesunięć można uzyskać z działu technicznego producenta napędu. Jeśli ich uzyskanie jest niemożliwe, zawsze można je obliczyć. W celu ochrony współczynników skośności oraz informacji o uszkodzeniach w inteligentnych napędach IDĘ, wystarczy uruchamiać je w trybie translacji. Wtedy informacje te nie mogą zostać wymazane.
Inteligentny zapis strefowy IDĘ Najnowsze i najbardziej wyszukane napędy IDĘ łączą inteligencję z zapisem strefowym. W zapisie strefowym liczba sektorów dysku na ścieżce może być różna i zależy od miejsca ścieżki w stosunku do środka talerza dysku. Ponieważ BIOS może obsługiwać tylko określoną liczbę sektorów na wszystkich ścieżkach, dyski umożliwiające zapis strefowy zawsze muszą pracować w trybie translacji. Stąd nie można zmieniać fabrycznego ustawienia przeplotu i współczynników skośności ani nie można wymazać fabrycznie zapisanych informacji o uszkodzeniach. Dyski te można jednak formatować niskopoziomowo i użyć tego rodzaju formatowania do mapowania, czyli wymiany na zapasowe uszkodzonych sektorów, powstających podczas eksploatacji dysku. Do formatowania inteligentnych dysków umożliwiających zapisywanie strefowe, należy zastosować specjalne narzędzie dostarczane przez wytwórcę napędów lub program rozpoznający napędy IDĘ, taki jak Disk Manager firmy Ontrack lub Microscope firmy Micro 2000.
ATA - 2 oraz ATA - 3 (Rozszerzone IDĘ) ATA-2 oraz ATA-3 są rozszerzeniem oryginalnej specyfikacji ATA (IDĘ). Najważniejszymi dodatkami są elementy poprawiające wydajność, takie jak tryby fast PIO oraz DMĄ. W ATA2 zostało poprawione również polecenie Identify Drive, które teraz pozwala napędowi na przekazywanie oprogramowaniu informacji dotyczących dokładnych właściwości napędu. ATA-3 zwiększyła pewność transmisji, szczególnie tej wykorzystującej szybsze standardy trybu 4. ATA-3 definiuje także prosty system zabezpieczeń oparty na hasłach, usprawnia kontrolę poboru prądu oraz tryb „Self Monitoring Anałysis and Report Technology" SMART. Pozwala on kontrolować napędowi jakość nośnika i na bieżąco informować komputer o wszelkich napotkanych problemach. Standard ATA-2 (podobnie ATA-3) często nazywany jest także Rozszerzonym (Enhan-ced) IDĘ (czyli EIDE).Technicznie rzecz ujmując, EIDE to rynkowy program firmy Western Digital. Fast ATA i Fast ATA-2 są podobnymi programami firmy Seagate (produkuje je również firma Ouantum). Dopóki nasze rozważania dotyczą dysków twardych oraz BIOS-u, wszystkie wymienione powyżej terminy oznaczają to samo. Istnieją cztery obszary, w których ATA-2/EIDE, ATA-3 oraz ATA-4 przewyższają oryginalny interfejs ATA/IDE
• Zwiększona maksymalna pojemność dysku • Szybszy transfer danych • Drugi kanał dla dwóch dodatkowych urządzeń • ATAPI (Programowy interfejs ATA) Ulepszenia te są opisane poniżej.
Zwiększona pojemność dysku ATA-2/EIDE pozwala na zwiększenie pojemności dysku w stosunku do pojemności pierwotnie określonej w specyfikacji ATA/IDE. Rozszerzony B10S pozwala na wykorzystywanie dysków twardych o pojemności większej niż 504 MB. Przyczyną dotychczasowego ograniczenia jest geometria dysku (cylindry, głowice, sektory), możliwa do obsłużenia przez kombinację napędu IDĘ i programowego interfejsu BIOS-u. Zarówno IDĘ, jak i BIOS osobno są w stanie obsługiwać dyski o wielkiej pojemności, lecz wspólnie potrafią obsłużyć jedynie dyski o pojemności poniżej 504 MB. Rozszerzony BIOS radzi sobie z tym ograniczeniem, dzięki użyciu innej geometrii podczas pracy z dyskiem, a innej podczas pracy z oprogramowaniem. Z różnych geometrii dysku można korzystać dzięki mechanizmowi translacji. Przykładowo: jeśli Twój dysk ma 2000 cylindrów i 16 głowic, BIOS poprzez translację może sprawić, że programy będą widziały 1000 cylindrów i 32 głowice. To, czy BIOS jest rozszerzony, można zwykle stwierdzić po sprawdzeniu, czy istnieje możliwość podania w konfiguracji BIOS-u więcej niż 1024 cylindry, choć nie jest to cechą rozstrzygającą. Jeśli BIOS umożliwia konfigurowanie takich ustawień jak ŁBA, ECHS czy LARGE, oznacza to, że obsługuje również tryb translacji. Większość BIOS-ów wyprodukowanych po roku 1994 to BIOS-y rozszerzone. Jeśli Twój system nie posiada rozszerzonego BIOS-u, powinieneś postarać się o niego. Obecnie BIOS-y mogą zarządzać translacją na trzy sposoby: wykorzystując standardowe adresowanie CHS (cylinder, głowica, sektor), rozszerzone adresowanie CHS oraz ŁBA (logiczne adresowanie bloków). Ich podsumowaniem jest poniższa tabela: Tryb BIOS-u
System operacyjny - BIOS
BIOS - porty napędów
Standardowe CHS Parametry logiczne CHS Parametry logiczne CHS Rozszerzenie CHS Parametry tłumaczone CHS Parametry logiczne CHS ŁBA Parametry tłumaczone CHS Parametry ŁBA W standardowym adresowaniu CHS występuje tylko jeden etap translacji (wewnątrz dysku). Rzeczywista, fizyczna geometria dysku, dla wszystkich napędów ATA z zapisem strefowym, jest zupełnie niewidoczna z zewnątrz. Parametry CHS wydrukowane na etykiecie na użytek konfiguracji BIOS-u przedstawiają logiczną, a nie rzeczywistą, fizyczną geometrię dysku. Standardowe adresowanie CHS jest ograniczone do 16 głowic i 1024 cylindrów, co daje maksymalną pojemność dysku równą 504 MB W programie konfiguracyjnym BIOS-u ustawienie „Normal" powoduje, że BIOS działa „po staremu", nie obsługując trybu translacji. Ustawienia tego używaj tylko, jeśli dysk ma mniej niż 1024 cylindry lub jeśli chcesz go używać pod kontrolą nie - DOS - owego systemu operacyjnego, który nie obsługuje translacji. W rozszerzonym adresowaniu CHS, inna geometria logiczna jest stosowana do komunikacji między napędem a BIOS-em, inna natomiast służy do komunikacji pomiędzy BIOS-em a wszystkimi innymi elementami systemu. Innymi słowy, translacja składa się z dwóch etapów. Napęd stale dokonuje translacji wewnętrznej, ale jego parametry logiczne przekraczają limit 1024 cylindrów, właściwy dla standardowego BIOS-u.
W takim przypadku, w celu obliczenia nowych parametrów na podstawie wartości przechowywanych w konfiguracji CMOS, należy zwykle podzielić liczbę cylindrów napędu przez 2, a liczbę głowic dwukrotnie pomnożyć. Dzięki temu można obejść ograniczenie 504/528 MB. Taki sposób ustawiania parametrów BIOS-u nosi nazwę LARGE lub ECHS i powoduje stosowanie przez BIOS rozszerzonej translacji CHS. Inna geometria (cylindry/głowice/ sektory) jest wtedy używana do komunikacji z napędem, a inna do komunikacji z BIOS-em. Ten typ translacji powinien być stosowany w przypadku dysków posiadających więcej niż 1024 cylindry, ale nie umożliwiających stosowania ŁBA. Zauważ, że geometria podawana podczas konfiguracji BIOS-u jest geometrią logiczną, a nie „tłumaczoną". Trzeci sposób zarządzania translacją stanowi metoda ŁBA, która jest metodą liniowego adresowania sektorów. Cylinder O, głowica O i sektor l jest adresem ŁBA 0; każdemu następnemu sektorowi przypisywana jest kolejna liczba, aż wszystkim fizycznym sektorom dysku zostaną przypisane adresy. Taki tryb adresowania jest nowy dla ATA-2, ale jest jedynym trybem używanym przez SCSI. W adresowaniu ŁBA, każdy sektor na dysku posiada swój numer. Jest to 28-bitowa liczba binarna, tłumaczona na numer sektora z zakresu od O do 268 435 456. Ponieważ każdy sektor ma 512 bajtów, maksymalna pojemność dysku wynosi dokładnie 128 GB lub 137 miliardów bajtów. Niestety, system operacyjny wciąż rozpoznaje tylko przetłumaczone adresowanie CHS, więc BIOS określa liczbę sektorów i zapisuje ją w tłumaczonym CHS. Ograniczenia BIOS CHS są następujące: 1024 cylindry, 256 głowic i 63 sektory na ścieżkę, co ogranicza całkowitą pojemność dysku do nieco poniżej 8 GB. Innymi słowy, ŁBA łamie granicę 528 MB w dokładnie taki sam sposób, jak rozszerzony CHS. Metoda liniowego adresowania sektora za pomocą pojedynczej liczby jest łatwiejsza niż adresowanie CHS i dlatego, jeśli napęd może ją obsługiwać, lepiej używać właśni eJ e). Kilka stów ostrzeżenia w związku z ustawieniami translacji w BIOS-ie: jeśli przełączasz pomiędzy trybami standardowego CHS, rozszerzonego CHS i ŁBA, BIOS może zmienić tłumaczoną geometrię. To samo może się zdarzyć, jeśli instalujesz dysk sformatowany w starym komputerze (bez obsługi ŁBA) na nowym komputerze, używającym ŁBA. Może to spowodować zmianę logicznej geometrii CHS widzianej przez system operacyjny. Sprawi to, że dane będą widziane w innych położeniach niż rzeczywiście są! Może to spowodować utratę dostępu do tych danych. Zawsze zalecam zapisywanie tych ekranów CMOS Setup, które są związane z konfiguracją dysku twardego. Pozwala to w razie potrzeby przywrócić oryginalne ustawienia
Szybszy transfer danych ATA-2/EIDE i ATA-3 definiuj kilka wysokowydajnych trybów przesyłania danych z dysku i na dysk. Te szybsze tryby są podstawowymi składnikami nowych specyfikacji i były głównym powodem ich wprowadzenia. Większość szybkich napędów obecnie dostępnych na rynku obsługuje tryby transferu PIO Modę 3 i Modę 4. Tryb PIO określa, jak szybko dane są przekazywane z dysku i na dysk. W najwolniejszym trybie - PIO Modę O - czas cyklu danych nie może przekroczyć 600 nanosekund (ns). W pojedynczym cyklu, z dysku lub na dysk przesyłanych jest 16 bitów, co daje teoretyczną szybkość transferu dla PIO Modę O równą 3,3 MB/s. Większość wysokowydajnych dysków ATA-2 (EIDE) może pracować w trybie PIO Modę 4, który umożliwia transfer z szybkością 16,6 MB/s.
Poniższa tabela przedstawia tryby PIO i odpowiadające im prędkości transferów:
0
Czas cyklu (ns) 600
Prędkość transferu (MB/s) 3,3
ATA
l
383
5.2
ATA
2
240
8,3
ATA
3
180
11,1
ATA-2
4
120
16,6
ATA-2
Tryb PIO
Specyfikacja
Praca w trybach Modę 3 i Modę 4 wymaga, aby port IDĘ był portem magistrali lokalnej. Oznacza to, że napęd musi być połączony z systemem za pomocą łącza VL-Bus lub PCI. Niektóre z nowszych płyt głównych obsługujących standard ATA-2/EIDE posiadają podwójne złącze IDĘ. Pierwsze złącze takich płyt jest dołączone do lokalnej magistrali PCI. Drugie natomiast - do magistrali ISA, w związku z czym nie pozwala na korzystanie z trybów Modę 3 ani Modę 4. Weź to pod uwagę, kupując nową płytę główną! W odpowiedzi na polecenie identify Drive, dysk twardy zwraca m.in. informację o trybach PIO oraz DMĄ, w których może pracować. Większość rozszerzonych BIOS-ów automatycznie ustawia właściwy tryb, tak aby maksymalnie wykorzystać możliwości napędu. Jeśli ustawisz tryb szybszy, niż dysk potrafi obsłużyć, przesyłane dane będą ulegać przekłamaniom. Napędy ATA-2 obsługuj ą także Tryb blokowy PIO (Błock Modę PIO), co oznacza, że używają poleceń Read/write Multipie, znacznie redukujących liczbę przerwań wysyłanych do głównego procesora. Zmniejsza to znacznie liczbę przerwań wysyłanych do procesora, dzięki czemu transfery danych mogą być jeszcze szybsze.
Tryby transferu DMĄ Napędy ATA-2 umożliwiają transfery z wykorzystaniem bezpośredniego dostępu do pamięci (DMĄ), choć nie jest on używany przez większość BIOS-ów i systemów operacyjnych. Bezpośredni dostęp do pamięci oznacza, że dane są przesyłane pomiędzy napędem a pamięcią bez pośrednictwa procesora (w przeciwieństwie do PIO). Wyróżnia się dwa rodzaje bezpośredniego dostępu do pamięci: DMĄ i DMĄ bus mastering (czyli z nadzorem magistrali). Zwykłe DMĄ do przeprowadzania złożonych zadań arbitrażu, przechwytywania magistrali systemowej i przesyłania danych używa kontrolera DMĄ znajdującego się na płycie głównej. W przypadku DMĄ nadzorującego magistralę, wszystkie te zadania są wykonywane przez układy umieszczone na karcie interfejsu. Oczywiście zwiększa to złożoność i cenę takiego interfejsu. Systemy, w których zastosowano układy Intel P1IX (PCI IDĘ 1SA eXcelerator) oraz późniejsze South Bridge, mają możliwość obsługi Bus Master IDĘ. Do wykonania transmisji danych jest wtedy używany tryb busmaster magistrali PCI. Tryby busmaster IDĘ i odpowiadające im szybkości transmisji zebrano w poniższej tabeli.
Tryb BMIDED
Długość cyklu (ns)
O
480
1 2
150 120
Prędkość transmisji (MB/s) 4.16 3,33 16.67
Specyfikacja ATA-2 ATA-2 ATA-2
Niestety, nawet najszybszy tryb busmaster, IDĘ modę 2, osiąga taką samą szybkość transmisji 16,67 MB/s, jak P10 Modę 4, tak że busmaster IDĘ nigdy naprawdę nie jest konieczne i w większości przypadków zaleca się pozostanie przy standardowym trybie PIO Modę 4, jeśli tylko dysk go obsługuje. Tryby busmaster IDĘ nigdy nie były zbyt efektywne, a obecnie wydajniejsze od nich są nowe tryby Ultra-DMA stosowane w urządzeniach zgodnych ze specyfikacją ATA-4.
ATAPI (ATA Packet Interface) ATAPI jest standardem zaprojektowanym dla takich urządzeń, jak CD-ROM-y i streamery, podłączanych do zwykłego złącza ATA (IDĘ). Podstawową zaletą sprzętu w standardzie ATAPI jest niska cena i fakt, że do korzystania z niego nie są potrzebne żadne specjalne kontrolery. Korzystanie ze standardu ATAPI powoduje, że CD-ROM-y nieco mniej obciążają procesor, ale nie poprawia ich wydajności. Natomiast streamery pracujące w standardzie ATAPI mogą uzyskać zarówno wyższe osiągi, jak i większą niezawodność. Mimo że CD-ROM-y ATAPI używają interfejsu dysku twardego, nie znaczy to, że wyglądają jak zwykły dysk twardy. Wręcz przeciwnie; z punktu widzenia oprogramowania, są one czymś zupełnie innym. W zasadzie najbardziej przypominają urządzenia SCSI. ATAPI w niektórych komputerach nie jest obsługiwane przez BIOS, lecz przez zainstalowane oprogramowanie: Windows 9x oraz NT. Systemy te mają własne procedury obsługi tego standardu, zupełnie niezależne od zainstalowanego w komputerze BIOS-u. Jednak tylko systemy zaopatrzone w BIOS obsługujący ATAPI CD-ROM pozwalają na uruchomienie komputera z dysku CD-ROM. Systemy Windows 98 oraz NT 5 będą rozprowadzane na CDROM-ach, z których można uruchomić komputer - dokładnie tak, jak dotychczas to robiono z dyskietki systemowej Inną generalną zasadą jest podłączanie urządzeń zewnętrznych do różnych kanałów IDĘ. Starsze chipsety nie pozwalają na skonfigurowanie dwóch różnych transferów dla dwóch różnych urządzeń pracujących na jednym kanale. Efektem było dostosowywanie prędkości do najwolniejszego zainstalowanego urządzenia. Jeżeli był to CDROM pracujący w trybie pierwszym, to dysk twardy - nawet gdyby mógł pracować w trybie 4 - będzie pracował w trybie pierwszym. W przypadku nowszych chipsetów - gdzie mieszanie trybów jest dozwolone - nadal nie zalecam tego sposobu podłączania. Standard IDĘ nie zezwala na jednoczesny dostęp do dwóch dysków podłączonych do jednego kanału. Praca z jednym powodowałaby przerwy w pracy z drugim dyskiem. Używanie dwóch różnych kanałów -jednego dla napędu CD, a drugiego dla dysku twardego -jest dobrą zasadą.
ATA-4 ATA-4 jest najnowszą wersją ATA, która została ostatecznie zatwierdzona w roku 1998. Mimo że stało się to w zeszłym roku, wiele chipsetów wyprodukowanych wcześniej potrafi obsługiwać ten standard. Nowsze układy South Bridge płyt Intela obsługują UDMA. ATA-4 włączyło ATAPI do standardu ATA - w wyniku czego ATAP1 nie jest już osobnym interfejsem. ATA-4 definiuje także standard transmisji UDMA (Ultra-DMA), pozwalający na transfer do 33 MB na sekundę, czyli dwukrotnie szybciej od najszybszego trybuPlO-4. Następną innowacją jest możliwość kolejkowania rozkazów - co upodabnia ten standard do trybu SCS1-2. Pozwala to na wydajniejszą wielozadaniowość.
Konfiguracja napędu IDĘ Napędy IDĘ mogą być zarówno proste, jak i kłopotliwe do skonfigurowania. Instalacja pojedynczego napędu jest zwykle bardzo prosta, z kilkoma (jeśli w ogóle) zworkami do ustawienia. Jednakże dołączenie dodatkowego napędu może stanowić problem. Zworki muszą być odpowiednio ustawione w obydwu napędach, a nazwy, położenie i nawet funkcje tych zworek mogą być inne w przypadku każdego z napędów. Ponieważ specyfikacja CAM ATA IDĘ została wprowadzona, gdy wiele firm już od dawna produkowało napędy, wiele starszych dysków IDĘ źle współpracuje z innymi napędami, zwłaszcza jeśli napędy te pochodzą od innych wytwórców. Czasem dwa dyski w ogóle nie będą ze sobą współpracować. Na szczęście większość nowych dysków działa według specyfikacji CAM ATA, co rozwiązuje ten problem.
Konfiguracja kabli Sposób łączenia napędów IDĘ jest z reguły bardzo prosty. Stosuje się 40-żyłowy kabel, z trzema złączami. Jedno z nich podłącza się do złącza interfejsu IDĘ; pozostałe dwa do pierwszego i drugiego napędu. Kabel zwykle łączy IDĘ oraz obydwa dyski kaskadowo. Jeden koniec kabla jest wetknięty do gniazda interfejsu IDĘ, zwykle umieszczonego na płycie głównej (choć może się ono też znajdować na karcie adaptera interfejsu IDĘ). Następnie kabel łączy kolejno napędy podrzędny (D) i nadrzędny (C). Napęd nadrzędny zwykle (choć nie zawsze) dołączony jest do kabla jako ostatni. W przypadku napędów IDĘ nie trzeba używać rezystorów terminujących (terminatorów), gdyż odpowiednie układy są już wbudowane we wszystkie napędy IDĘ. Ostatni napęd na kablu nie musi być dyskiem nadrzędnym (C), więc kolejność podłączenia dysków do złączy jest dowolna. O tym, który napęd jest nadrzędny, a który podrzędny, decydują wyłącznie zworki znajdujące się na tych napędach. Możesz spotkać się z różnymi sposobami łączenia kabli w niektórych instalacjach IDĘ. Czasem złącze środkowe jest połączone z płytą główną, a pierwszy i drugi dysk są na przeciwnych końcach kabla (rozmieszczenie w kształcie litery Y). Jeśli spotkasz się z takim połączeniem, pamiętaj, że w niektórych takich instalacjach położenie na kablu, a nie ustawienie zworek decyduje o tym, czy dysk Jest dyskiem nadrzędnym, czy podrzędnym. Kontrolowanie ustawień master/slave przy użyciu kabla, a nie zworek jest dokonywane z wykorzystaniem specjalnego sygnału CSEL w interfejsie IDĘ (końcówka 28). Jeśli linia CSEL łączy dysk z interfejsem IDĘ, dysk jest automatycznie uważany za nadrzędny (master). Jeśli linia CSEL między napędem a interfejsem jest otwarta, dysk jest traktowany jako podrzędny (slave). Przy rozmieszczeniu napędów w kształcie litery Y, złącze interfejsu IDĘ znajduje się na środku kabla. Przyjrzyj się bliżej takiemu połączeniu. Jeśli jeden z końców „litery" Y ma otwartą linię 28 (zwykle jest to dziura w kablu na tej żyle), napęd podłączony do systemu za jego pośrednictwem będzie zawsze napędem podrzędnym. Taki właśnie sposób łączenia napędów za pomocą kable IDĘ jest wykorzystywany w systemach HP Yectra PC. Eliminuje to konieczność ustawiania zworek w napędach IDĘ, ale może też sprawić wiele kłopotów tym, którzy z powyższymi informacjami się zetknęli.
Ustawienia zworek w napędach IDĘ Konfigurowanie napędów IDĘ może być proste, jak w przypadku instalowania pojedynczego dysku, lub kłopotliwe, zwłaszcza jeśli trzeba zainstalować na jednym kablu dwa dyski, pochodzące od różnych wytwórców. Większość napędów IDĘ występuje w trzech konfiguracjach: • Pojedynczy napęd (master) • Master (dwa napędy) • Slave (dwa napędy) Ponieważ każdy napęd IDĘ ma własny kontroler, musisz wyszczególnić, który dysk ma pracować jako master, a który jako slave. Nie ma między nimi żadnej funkcjonalnej różnicy, za wyjątkiem tego, że napęd określony jako slave będzie po zresetowaniu potwierdzał sygnał DASP, informując mastera o swojej obecności w systemie. Wtedy master zacznie zwracać uwagę na linię Drive Select, którą w innych przypadkach ignoruje. Informowanie dysku o tym, że pracuje jako slave, często powoduje opóźnianie jego rozruchu o kilka sekund (zanim wystartuje master), co zmniejsza obciążenie zasilacza Przed powstaniem specyfikacji ATA IDĘ, nie używano żadnego standardu konfigurowania napędów. Niektóre firmy używały nawet różnych metod master/slave w różnych modelach własnych napędów. Prowadziło to do takich sytuacji, że niektóre napędy mogły pracować tylko w jednym specyficznym porządku master/slave lub slave/master. Dotyczyło to większości starszych napędów IDĘ - wyprodukowanych przed wprowadzeniem specyfikacji ATA. Do skonfigurowania większości napędów w pełni odpowiadających specyfikacji ATA wystarcza jedna /worka (zworka „Master/slave"). Niektóre z nich potrzebują również zworki „Slave Present". Tabela 15.2 przedstawia ustawienia zworek wymagane przez większość napędów ATA IDĘ. Zworka „Master" wskazuje, czy dysk jest master czy slave. Niektóre napędy wymagają także ustawienia /.worki „Slave Present", używanej tylko przy konfigurowaniu dwóch napędów i instalowanej tylko w napędzie master, co jest nieco mylące. Zworka ta informuje napęd, że do systemu dołączony jest napęd slave. W wielu napędach ATA IDĘ zworka „Master" jest opcjonalna i może zostać pominięta. Jej instalacja nie sprawia kłopotów, natomiast pozwala uniknąć wszelkich niejasności, więc zalecam instalowanie zworek wymienionych powyżej.
Napędy Conner Peripherals Ze względu na to, że napędy Conner Peripherals trafiły na rynek przed wprowadzeniem specyfikacji ATA IDĘ, sposoby konfigurowania tych napędów często się różnią od sposobów standardowych dla tej specyfikacji. Napędy IDĘ pochodzące od różnych producentów, łączone w jednym komputerze, nie zawsze chcą ze sobą współpracować. Tabela 15.3 przedstawia ustawienie zworek, które jest najbardziej optymalne dla większości napędów Conner IDĘ. Zworka C/D używana jest od określania, czy dany napęd jest napędem nadrzędnym -master (zwykle C - stąd C), czy napędem podrzędnym - slave (napędem D, stąd C/D). Napęd jest konfigurowany jako master, gdy zworka ta jest obecna (aktywna). Zworka DSP wskazuje, czy w systemie zainstalowany jest napęd podrzędny - slave. Zworka HSP powoduje wysłanie do napędu master sygnału „slave obecny" (Slave Present), informującego go o obecności napędu podrzędnego. Natomiast zworka ACT powoduje wysyłanie sygnału przez napęd master podczas przebywania w stanie aktywności.
Niektóre napędy Conner nie mają domyślnie ustawionej obsługi standardowego interfejsu CAM ATA. W związku z tym, do systemów z zainstalowanym napędem Conner, którego domyślne ustawienia nie zostały zmienione, nie można dołączyć napędu innego producenta, ani jako dysku master, ani jako slave. Na szczęście, ustawienia konfiguracyjne można czasem zmienić Zmiany te można przeprowadzić na dwa sposoby. Jednym z nich jest użycie specjalnego programu służącego do wprowadzenia półpermanentnych zmian trybu pracy dysku. Specjalny, umożliwiający to plik, o nazwie FEATURE.COM, można pobrać z BBS-u (rodzaj tablicy informacyjnej zawierającej programy) firmy Conner. Plik ten zawiera program wyświetlający bieżące ustawienia ISA/ATACAM i umożliwiający zmienianie tych ustawień. Wprowadzona zmiana zapisywana jest w bajcie właściwości (bajcie feature - stąd nazwa pliku), w oprogramowaniu firmware napędu, co wystarcza do tego, by większość napędów innych producentów mogła pomyślnie współpracować z tymi napędami. Program ten umożliwia również przywracanie wartości domyślnej bajta właściwości, które to ustawienie jest optymalne, jeśli drugim (lub kolejnym) dołączanym dyskiem jest także dysk firmy Conner. Drugi sposób zmieniania domyślnych ustawień konfiguracyjnych napędów firmy Conner można zastosować w stosunku do niektórych tylko napędów tej firmy, a mianowicie do tych, które wyposażone są w specjalną zworkę ATA/1SA. Zworka ta powinna być prawie zawsze ustawiona w pozycji ATA, co zapewnia tym dyskom kompatybilność ze standardem ATA (i właśnie ustawienie zworki w tej pozycji stanowi drugi sposób umożliwienia współpracy dyskom Conner z dyskami innych producentów - przyp. tłum.). Jeśli jednak w systemie masz zainstalowane tylko napędy firmy Conner, możesz tę zworkę pozostawić w pozycji trybu ISA. Niektóre napędy Conner mają również osobną zworkę (El) opóźniającą uruchamianie dysku po włączeniu komputera, w celu zmniejszenia obciążenia sieci w momencie, gdy wszystkie urządzenia komputera są uruchamiane. Zworka ta powinna być aktywna na każdym z napędów skonfigurowanych jako slave. Włączanie większości napędów innych producentów jest automatycznie opóźnianie podczas uruchamiania komputera. Większość napędów Conner ma oprócz tego specjalny 12-pinowy konektor, który jest używany do zasilania dodatkowej diody świecącej (pinu - dioda +5 V, a pin2 - masa) oraz wszelkiego rodzaju urządzeń fabrycznych specjalnego przeznaczenia, używanych do formatowania niskiego poziomu, formatowania itp. czynności. Firma o nazwie TCE sprzedaje urządzenie o nazwie The Conner, które po podłączeniu do portu umożliwia przeprowadzenie pełnego zainicjowania, formatowania i testowania napędu na poziomie fabrycznym. Urządzenie to uważam za niezbędne dla każdego, kto obsługuje większą liczbę napędów firmy Conner Peripherals. Warto przy tym pamiętać, że większość komputerów firmy Compaq korzysta właśnie z napędów Conner. Więcej informacji na temat napędów tej firmy uzyskasz korzystając z systemu FAXBack pod numerem 0800/4conner (w USA - przyp. tłum.). Za pomocą tego systemu można uzyskać informacje dotyczące ustawień wszystkich zworek właściwych dla napędów Conner
8-bitowa magistrala XT-Bus IDĘ Wiele systemów o architekturze magistrali XT 1SA używa dysków twardych XT IDĘ. Interfejs IDĘ tych systemów zwykle jest wbudowany w płytę główną. Komputery typu 1BM/PS2 - modele 25, 25-286, 30 oraz 30-286 - używały 8-bitowego interfejsu XT IDĘ. Te 8-bitowe napędy XT IDĘ są dziś bardzo trudne do znalezienia. Prócz IBM-u, Western Digital oraz Seagate, niewiele firm oferowało tego rodzaju napędy o pojemnościach przekraczających 40 MB. Ze względu na to, że interfejs ATA IDĘ ma architekturę 16-bitową, dyski tego typu nie mogły być używane w systemach 8-bitowych (typu XT), w związku z czym niektórzy producenci napędów korzystali z 8-bitowych interfejsów napędów IDĘ dla systemów XT. Napędy takie nigdy nie stały się specjalnie popularne i zwykle dostępne były w pojemnościach 20 i 40 MB. Tabela 15.4 przedstawia standardowy układ pinów 8-bitowego złącza IDĘ.
Tabela 15.4. Złącze XT-bus IDĘ Nazwa sygnału
Pin
Pin
Nazwa sygnału
-RESET
l
2
Masa
Bit danych 7
3
4
Masa
Bit danych 6
5
6
Masa
Bit danych 5
7
8
Masa
Bit danych 4
9
10
Masa
12
Masa
Bit danych 3 11 Bit danych 2
13
14
Masa
Bit danych l
15
16
Masa
Bit danych 0
17
18
Masa
Masa
19
20
AEN
21
22
Blokada (brak pina) Masa
-IOW
23
24
Masa
-IOR
25
26
Masa
-DACK 3
27
28
Masa
DR03
29
30
Masa
IR05
31
32
Masa
Bit adresu l
33
34
Masa
Bit adresu 0
35
36
Masa
-CSTFX
37
38
Masa
-Drive Active (napęd aktywny)
39
40
Masa
Tabela 15.5. Układ złącza IDĘ magistrali XT komputerów IBM PS/2 (model 25 i 30) Nazwa sygnału
Pin
Pin
Nazwa sygnału
-RESET
l
2
-dysk zainstalowany
Bit danych 0
3
4
Masa
Bit danych l
5
6
Masa
Bit danych 2
7
8
Masa
Bit danych 3
9
10
Masa
Bit danych 4
II
12
Masa
Bit danych 5
13
14
Masa
Bit danych 6
15
16
Masa
Bit danych 7
17
18
Masa
-IOR
19
20
Masa
-IOW
21
22
Masa
-CSTFX
23
24
Masa
Bit adresu 0
25
26
Masa
Bit adresu l
27
28
Masa
Bit adresu 2
29
30
+5VDC
Zarezerwowany
31
32
+5VDC
-DACK 3
•33
34
Masa
DRO
35
36
Masa
IR05
37
38
Masa
I/O CH RDY
39
40
+12VDC
Dodatkowy
41
42
+12VDC
Dodatkowy
43
44
+12VDC
Nowsze systemy PS/l, systemy PS/Y aluepoint oraz PS/2 z 16-bitową architekturą ISA używają napędów ATA IDĘ. Ponieważ, mimo wielkiej różnorodności napędów, prawie wszystkie wyposażone są w interfejs ATA IDĘ, systemy takie można łatwo naprawiać i modernizować. Napędy ATA IDĘ są dostępne w pojemnościach przekraczających l GB.
MCA IDĘ Model 50 i nowsze modele komputerów IBM PS/2 wyposażone są w gniazda rozszerzeń MCA (Micro Channel Architecture). Mimo że większość nowoczesnych systemów używa napędów SCSI, to w tych modelach komputerów IBM przez pewien czas używał napędy MCA IDĘ. Interfejs MCA IDĘ jest rodzajem interfejsu IDĘ, ale został zaprjektowany do obsługi magistrali MCA IDĘ i w związku z tym nie jest kompatybilny z bardziej na rynku rozpowszechnionym interfejsem ATA IDĘ. Bardzo niewiele firm poza IBM i Western Digital produkowało napędy MCA IDĘ do tego rodzaju systemów. Jeśli masz taki napęd, to możesz z niego korzystać w systemach obsługujących ATA IDĘ, pod warunkiem, że masz odpowiedni MCA-ATA adapter, na przykład firmy Arco Electronics lub Sigma Data. Jeśli takiego adapteru nie masz, czeka Cię wymiana napędu MCA na napęd ATA lub napęd SCSI. Na pewno nie warto kupować nowego napędu tego rodzaju, gdyż jest on zbyt drogi jak na możliwości, które oferujeUkład pinów złącza MCA IDĘ jest przedstawiony w tabeli 15.6. Tabela 15.6. Układ stacza MCA IDĘ Nazwa -CD Bit adresu Masa Bit adresu Bit adresu Bit adresu +5VDC Bit adresu Bit adresu Bit adresu +5VDC Bit adresu Bit adresu Bit adresu +5VDC Bit adresu Bit adresu Bit adresu +12VDC -ADL -BURST +5VDC ARBO
Pin Al A2 A3 A4 A5 A6 A7 A8 A9 A10 Ali A12 A13 A14 A15 A16 A17 A18 A19 A20 \1\ Ml A23 A24
Pin Bl B2 B3 B4 B5 B6 B7 B8 B9 B10 Bil B12 B13 B14 B15 B16 B17 B18 B19 B20 B21 B22 B23 B24
Nazwa sygnału Bit adresu 15 Bit adresu 14 Masa OSC(14,3MHz) Masa Bit adresu 12 -CMD -CD SFDBK Masa Bit danych l Bit danych 3 Bit danych 4 Masa CHRESET Bit danych 8 Bit danych 9 Masa Bit danych 12 Bit danych 14 Bit danych 15 Masa Bit danych 0 Bit danych 2 Bit danych 5
Wprowadzenie do SCSI SCSI (czyt. skazi) jest akronimem określenia Smali Computer System Interface (dosł.: systemowy interfejs małego komputera). Interfejs ten wywodzi się z SASI (Shugart Associates System Interface). Nie Jest to interfejs dysku, lecz interfejs poziomu systemowego. SCSI nie jest bowiem rodzajem kontrolera, lecz magistralą mogącą obsługiwać do ośmiu urządzeń. Jedno z nich, mianowicie kontroler, funkcjonuje jako brama komunikacyjna pomiędzy magistralą SCSI a magistralą komputera PC. SCSI nie porozumiewa się więc bezpośrednio z urządzeniami, takimi jak dyski twarde, lecz z wbudowanymi w te dyski (urządzenia) kontrolerami. Pojedyncza magistrala SCSI, jak już wspomnieliśmy, może obsługiwać do ośmiu Jedno-stek fizycznych nazywanych zwykle identyfikatorami SCSJ ID. Jedną z tych jednostek jest zawsze dołączona do płyty głównej karta kontrolera, pozostałymi siedmioma mogą być dowolne urządzenia peryferyjne takie jak dyski twarde, napędy taśm, napędy CD-ROM, skanery i inne urządzenia podłączone do jednego kontrolera SCSI. Większość komputerów obsługuje do czterech kontrolerów SCSI, w związku z czym do jednej płyty głównej dołączyć można nawet 28 różnych urządzeń. Niektóre nowsze wersje interfejsu SCSI obsługują do 15 urządzeń na jednej magistrali (czyli umożliwiają zainstalowanie 60 urządzeń na jednym komputerze). Dysk twardy SCSI zwykle ma wbudowany kontroler dysku oraz kontroler SCS1 - taki rodzaj napędu nazywa się napędem osadzonym SCSI. Interfejs SCSI jest tu wbudowany w napęd. Większość napędów dysków twardych SCSI to napędy IDĘ z dołączonym kontrolerem SCSI. W przypadku dysków SCSI nie trzeba wiedzieć, jaki rodzaj kontrolera kontroluje dysk, gdyż komputer i tak nie może się porozumiewać z tym kontrolerem bezpośrednio, jak z kontrolerami podłączonymi do płyty głównej, lecz komunikacja odbywa się za pośrednictwem zainstalowanego na magistrali komputera kontrolera SCSI. Dostęp do napędu można uzyskać tylko za pomocą protokołów SCSI. Firma Apple początkowo zainteresowała się SCSI jako niedrogim sposobem rozwiązania problemów w systemach Macintosh, które uprzednio spowodowała. Inżynierowie z Apple zdali sobie sprawę, że założoną przez nich bezsiotowość (czyli brak gniazd umożliwiających podłączanie urządzeń zewnętrznych) można uzyskać jedynie używając standardu SCSI - i wbudowali ów kontroler w elektronikę komputera. Ze względu na to, że systemy PC od początku były przygotowane do rozbudowywania, pęd ku tej nowej technologii nie był aż tak wielki. Przy ośmiu słotach (gniazdach rozszerzeń) mogących obsługiwać różne urządzenia i kontrolery w komputerach IBM oraz IBM-kompatybilnych, wydawało się, że SCSI nie jest potrzebne. Teraz jednak SCSI zdobywa coraz to szersze kręgi zwolenników, ze względu na możliwość znacznego rozszerzenia systemu (bez obaw o konflikty zasobów) oraz dostępność wielu urządzeń z wbudowanym interfejsem SCSI. Jednak dużo czasu minęło, zanim SCSI zostało ostatecznie zaakceptowane. Głównie z tego powodu, że za standardem SCSI nie stała żadna siła ekonomiczna potrafiąca przekonać pozostałych producentów do jednego standardu; przynajmniej nie na rynku komputerów kompatybilnych z IBM. W związku z tym, każdy producent wdrażał własną wersję tego standardu, zwłaszcza na poziomie kontrolerów. SCSI jest bowiem standardem, tak samo jak standardem jest łącze RS-232 (port szeregowy, do którego zwykle dołączana jest mysz). W odróżnieniu jednak od tego drugiego standardu, SCSI definiuje tylko połączenia sprzętowe, nie specyfikując sposobu komunikowania się z urządzeniami obsługującymi ten standard. Oprogramowanie łączy podsystem SCSI z systemem komputera, lecz niestety, większość sterowników działa jedynie ze ściśle określonymi urządzeniami i kontrolerami.
Na przykład skaner sprzedawany jest z osobnym kontrolerem SCSI, który dołącza się do systemu; napęd CD-ROM wymaga swojego (innego) kontrolera SCSI i oprogramowania, które działa jedynie z tym właśnie kontrolerem. Taki przykładowy komputer, z zainstalowanymi już dwoma kontrolerami SCSI, wymagałby użycia trzeciego tego typu kontrolera w celu obsługi dysków twardych SCSI, ponieważ kontrolery dostarczane przez producentów skanerów i CD-ROM-ów nie zawierają samo ładującego się BIOS-u, który mógłby obsługiwać napędy dysków twardych Wiele z powyższych ograniczeń wynika jedynie z tego, że producenci chętnie zaoszczędziliby jak największą sumę na produkcji. Dlatego wypuszczane przez nich kontrolery były często okrojone z wszelkich funkcji, które byłyby nieprzydatne przy współpracy z ich urządzeniami. Na szczęście zakup osobnego kontrolera z pełnymi możliwościami rozwiązuje powyższe problemy, gdyż pozwala na bezpośrednie podłączenie do niego wszelkich urządzeń z tego zespołu muszą przejść przez obwody kontrolera dysku, które w napędach SCSI są praktycznie takie same jak w ATAIDE. W napędzie ATA-IDE dane te są bezpośrednio przekazywane na magistralę systemową. Z kolei w napędzie SCSI dane najpierw muszą przejść przez wbudowany adapter interfejsu magistrali SCSI, następnie być przesłane przez samą magistralę SCSI, a następnie przejść przez kolejny kontroler interfejsu, znajdujący się na karcie host-adaptera. Dłuższa droga, jaką muszą pokonać dane, sprawia, że transfer SCSI jest wolniejszy niż bezpośredni transfer ATA-IDE. Panuje powszechne przekonanie, że SCSI jest dużo szybsze od IDĘ. Niestety, zwykle jest to przekonanie błędne. Powstało ono na skutek porównywania wyłącznie „surowych" możliwości magistrali 1SA i SCSI. 8-bitowa magistrala Fast SCSI-2 może przesyłać dane z prędkością 10 MB/s, a 16-bitowa magistrala ISA, z której korzystają napędy IDĘ, przesyła dane z prędkością od 2 do 8 MB/s. Porównując tylko prędkości transferu danych przez magistralę, można dojść do wniosku, że SCSI jest szybsze. W rzeczywistości prędkość transferu nie jest ograniczeniem, są nim natomiast obwody kontrolera dysku oraz zespół głowic. Warto także pamiętać, że jeśli nie korzystasz z adaptera PCI, VL-BUS, EISA lub 32bitowego adaptera MCA SCSI, szybkość transferu danych SCSI będzie ograniczona wydajnością magistrali głównej oraz napędu. Z drugiej strony, nowoczesne systemy operacyjne są wielozadaniowe, a urządzenia SCSI (z ich wszystkimi dodatkowymi obwodami kontrolerów) pracują niezależnie od siebie (w odróżnieniu od urządzeń IDĘ). Powoduje to, że dane mogą być równocześnie odczytywane i wysyłane do każdego urządzenia SCSI, czego efektem jest sprawniejsza wielozadaniowość oraz zwiększona całkowita przepustowość. Najbardziej zaawansowane systemy operacyjne, takie jak Windows NT, umożliwiają nawet łączenie napędów w struktury. Zestaw taki to dwa lub więcej napędów, które użytkownik widzi jako jeden. Dane są równo dzielone między poszczególne dyski, co zwiększa ich całkowitą przepustowość. Więcej informacji na ten temat znajdziesz pod adresem internetowym: http://www.microsoft.com/kb/articles/ql 13/9/33.htm
Pojedyncze lub różnicowe SCSI „Zwykłe" SCSI często nazywane jest terminem single-ended (można to rozumieć jako niesymetryczne, jednokońcówkowe czy pojedyncze). Każdy sygnał jest przesyłany przez magistralę jednym, właściwym dla tego sygnału przewodem. W różnicowym SCSI każdy sygnał jest przesyłany parą przewodów. Pierwszy przewód przenosi taki sam sygnał jak w przypadku trybu pojedynczego SCSI, natomiast drugi przenosi logiczne odwrócenie tego sygnału. Urządzenie odbierające odczytuje różnicę tych sygnałów (stąd nazwa różnicowe SCSf). Takie rozwiązanie zmniejsza wrażliwość na zakłócenia i pozwala na stosowanie dłuższych przewodów. Różnicowe SCSI może korzystać z kabli o długości do 25 m, podczas gdy pojedyncze SCSI działa poprawnie tylko przy długości kabla mniejszej niż 6 m dla standardowych transferów synchronicznych i asyn-chronicznych oraz mniejszej niż 3 m dla Fast SCSI. Urządzenia pojedyncze oraz urządzenia różnicowe nie mogą być jednocześnie podłączone do magistrali SCSI - rezultat byłby katastrofalny (i towarzyszyłby mu dym!). Pomyłka jest możliwa, ponieważ kable i złącza obydwu typów urządzeń są takie same. Zwykle jednak nie stanowi to problemu, gdyż bardzo niewiele urządzeń korzysta z różnicowego SCSI. Zwłaszcza w środowisku PC będziesz mieć do czynienia niemal wyłącznie z urządzeniami pierwszego rodzaju. Jeśli mimo wszystko natrafisz na urządzenie, które może sprawiać wrażenie różnicowego, jest kilka sposobów sprawdzenia, czy rzeczywiście nim jest. Pierwszy polega na znalezieniu specjalnego oznaczenia na urządzeniu. Typ singie-ended i różnicowe SCSI fabrycznie oznaczane są za pomocą różnych symboli, które przedstawia rysunek 15.4 Rysunek15.4 Uniwersalne symbole pojedynczego i różnicowego SCSI
Jeśli nie dostrzegasz takich symboli, możesz sprawdzić, czy urządzenie jest różnicowe, za pomocą omometru. Przy użyciu omometru mierzysz oporność pomiędzy pinami 21 i 22 na złączu urządzenia. W systemie pojedynczym końcówki te powinny być zwarte ze sobą oraz z masą. W urządzeniu różnicowym powinny być otwarte i powinna występować miedzy nimi dość duża oporność. Ale raczej nie natkniesz się na ten typ urządzeń, gdyż niemal wszystkie urządzenia SCSI pracujące w środowisku PC to urządzenia z pojedynczym przesyłem.
SCSI-1 i SCSI-2 Specyfikacja SCSI-2 jest w zasadzie ulepszoną wersją SCSI-1. Udoskonalono niektóre części specyfikacji oraz dodano kilka nowych funkcji oraz opcji. Urządzenia SCSI-1 i SCSI-2 są kompatybilne, a,e SCSI-1 ignoruje elementy dodane w SCSI-2 (nie obsługuje ich). Niektóre zmiany w SCSI-2 są bardzo nieznaczne. Na przykład, w SCSI-1 kontrola parzystości magistrali była opcjonalna, natomiast w SCSI-2 jest zaimplementowana na stałe. Innym wymogiem jest, aby urządzenia inicjujące, jak host-adaptery, zasilały terminatory, co i tak większość urządzeń czyni
SCSI-2 ma także kilka elementów opcjonalnych: • FastSCSI • WideSCSI • Kolejkowanie poleceń • Złącza kablowe o wysokiej przepustowości • Ulepszona terminacja aktywna (Alternative 2) Są to tylko opcje. Jeśli podłączysz np. napęd Fast SCSI do host-adaptera standardowego SCSI, interfejs będzie działał, ale z prędkościami właściwymi dla standardowego SCSI.
SCSI-3 SCSJ-3 jest nazwą używaną do opisu zestawu wprowadzanych obecnie standardów. Jest to po prostu nowa generacja dokumentów, z którymi produkt musi być zgodny. Patrz „Nowe polecenia" w dalszej części tego rozdziału.
Fast i Fast-Wide SCSI Fast SCSI oznacza zdolność przeprowadzania synchronicznego transferu danych z dużą szybkością. Przy standardowym, 8-bitowym okablowaniu SCSI, Fast SCSI może osiągnąć prędkość transferu do 10 MB/s. W połączeniu z 16-bitowym interfejsem Wide SCSI, prędkość wzrasta do 20 MB/s (konfiguracja nazywana Fast/Wide).
Fast-20 (Ultra) SCSI Fasl-20, czyli Ultra SCSf oznacza zdolność przeprowadzania synchronicznego transferu danych z szybkością dwukrotnie większą niż w przypadku Fast SCSI. Rozwiązanie to wprowadzono w szkicu specyfikacji SCSI-3 i jest obecnie stosowane przede wszystkim w bardzo szybkich twardych dyskach. Przy standardowym okablowaniu Ultra SCSI osiąga prędkość transferu 20 MB/s. W połączeniu z 16-bitowym interfejsem Wide SCSI osiąga prędkość 40 MB/s (konfiguracja nazywana Ultra/Wide).
Fast-40 SCSI Fast-40 SCSI jest przewidywaną nowelizacją SCSI-3 (wspomnianego wcześniej w tym rozdziale), umożliwiającą uzyskanie prędkości transferu 40 MB/s.
Wide SCSI Wide SCSI umożliwia równoległy transfer danych poprzez 16-bitową magistralę. Rozszerzone połączenie wymaga stosowania nowych kabli. Standardowy 50-żyłowy, 8-bitowy przewód nazywany jest kablem A (A cable). Specyfikacja SCSI-2 pierwotnie zdefiniowała specjalny, 68-żyłowy kabel B, który miał być używany razem z kablem A, ale wytwórcy zignorowali tę specyfikację na korzyść nowszego, 68-żyłowego kabla P. Stał się on częścią specyfikacji SCSI-3. Kabel P wyparł kombinację kabli A i B, ponieważ może być używany samodzielnie (bez kabla A) w konfiguracjach Wide SCSI 32-bitowa wersja Wide SCSI została pierwotnie zaprojektowana na papierze jako część specyfikacji SCSI-2, ale nie zyskała popularności w środowisku PC i prawdopodobnie długo jej tu nie znajdzie. Teoretycznie, 32-bitowe implementacje SCSI wymagałyby dwóch kabli: 68-żyłowego kabla P i 68-żyłowego kabla Q.
Światłowodowe SCSI Światłowodowe SCSI jest specyfikacją interfejsu szeregowego, używającego światłowodowego łącza i charakterystyki protokołu, z zestawem poleceń SCSI. Umożliwia przesyłanie danych z szybkością 100 MB/s, przy zastosowaniu kabla światłowodowego lub koncentrycznego.
Terminacja Poprawne funkcjonowanie magistrali SCSI o pojedynczym sygnale zależy od ścisłej tolerancji względem napięć terminujących. Niestety, 132-omowa terminacja, zdefiniowana w dokumencie SCSI-1, nie była przewidziana do pracy przy wysokich prędkościach, jakie można obecnie osiągnąć w transmisji synchronicznej. Te pasywne terminatory mogą powodować odbicia sygnału, powodujące błędy przy zwiększonej prędkości transferu lub przy dołączeniu do magistrali kilku urządzeń. SCSI-2 definiuje stabilizowany napięciowo terminator aktywny, obniżający impedancję do 110 omów i poprawiający niezawodność systemu.
Kolejkowanie poleceń W specyfikacji SCSI-1 urządzenie inicjujące, takie jak host-adapter, mogło wysyłać tylko po jednym poleceniu do jednego urządzenia. W SCSI-2, host-adapter może wysłać do 256 poleceń, które będą przechowywane i przetwarzane przez urządzenie przed wysłaniem przez nie sygnału odpowiedzi do magistrali SCSI. Urządzenie docelowe może nawet zmienić kolejność poleceń, w celu wydajniejszego ich wykonania. Właściwość ta jest szczególnie przydatna w środowiskach wielozadaniowych, takich jak OS/2 czy WindowsNT, które mogą ją odpowiednio wykorzystać.
Nowe polecenia Powszechnie używana przez producentów tzw. Wspólna lista rozkazów (Common Command Set) została oficjalną częścią standardu SCSI-2. Lista ta była przeznaczona głównie dla napędów dysków i nie zawierała poleceń specyficznych dla urządzeń innych rodzajów. W SCSI-2 zmodyfikowano wiele starszych rozkazów, dodano także kilka nowych: dla CDROM-ów, napędów optycznych, skanerów, urządzeń komunikacyjnych oraz zmieniaczy płyt (np. szaf grających).
SCSI-3 Choć specyfikacja SCSI-2 została przyjęta niedawno (aczkolwiek od dłuższego czasu nie ulegała już żadnym zmianom), obecnie rozwija się już specyfikacja SCSI-3. Będzie ona zawierać wszystko to, co jej poprzedniczka, a oprócz tego nowe polecenia, funkcje i właściwości. Przykładowo, SCSI-3 będzie mogło obsługiwać do 32 urządzeń dołączonych do magistrali, zamiast jedynie ośmiu właściwych dla standardowego SCSI Do najciekawszych propozycji SCSI-3 należy szeregowe SCSI (Serial SCSI), układ używający tylko 6-żyłowego kabla i umożliwiający transfer danych z prędkością do 100 MB/s! Przejście z transmisji równoległej na szeregową pozwoli uregulować problemy opóźnień, zakłóceń oraz terminacji, które były zmorą SCSI-2, a także uprości połączenia kablowe. Szeregowe SCSI będzie w stanie przesłać więcej danych przewodem 6-żyłowym, niż 32-bitowe Fast Wide SCSI może przesłać za pomocą 128 żył! Planuje się instalowanie szeregowego SCSI na płytach głównych przyszłych systemów, co umożliwi fenomenalną poprawę ich wydajności oraz możliwości rozbudowy systemów.
Szeregowe SCSI nie sprawi, że starsze host-adaptery i kable w ciągu jednej nocy staną się przestarzałe, spowoduje jednak, że okablowanie będzie w przyszłości przypominało układankę. Szeregowe SCSI umożliwia stosowanie dłuższych kabli, zmniejsza zakłócenia elektromagnetyczne i ułatwia podłączanie laptopów, notebooków i stacji dekujących. Oczekuje się, że SCSI-3 pozwoli na bezproblemową instalację z automatycznym (PnP) konfigurowaniem SCSI ID oraz układami terminującymi. Minie jeszcze trochę czasu, zanim standard SCSI-3 zostanie formalnie przyjęty. Ale istnieje w postaci dokumentów projektowych i jeśli jakieś jego elementy okażą się stabilne, możemy oczekiwać, że jeszcze przed jego formalnym przyjęciem pojawią się na rynku produkty reklamowane jako kompatybilne z SCSI-3 (już się pojawiły - przyp. tłum.). Ponieważ standard ten zawiera w sobie elementy SCSI-2, właściwie każdy może nazywać urządzenia SCSI-1 i SCSI-2 urządzeniami SCSI-3. Podchodź więc ostrożnie do tak reklamowanych produktów. Niektóre z nowych elementów SCSI-3 prawdopodobnie będą niekompatybilne z wcześniejszymi implementacjami SCSI, więc na ich pojawienie się na rynku trzeba będzie zapewne poczekać trochę dłużej.
Kable i złącza SCSI Standardy SCSI dotyczące kabli i złączy są bardzo specyficzne. Najpowszechniej stosowanymi typami złączy określonych w tym standardzie są: 50-stykowe, nieekranowane złącze typu pin-header, używane do wewnętrznych połączeń SCSI, oraz 50-stykowe, ekranowane, zatrzaskowe złącza typu Centronics do połączeń zewnętrznych. W oficjalnej specyfikacji ekranowane złącze typu Centronics występuje pod nazwą^ Alternative 2. Zarówno magistrala pojedyncza, jak i magistrala różnicowa, umożliwiają stosowanie zarówno pasywnej, jak i aktywnej terminacji (preferuje się aktywną). 50-przewodowa konfiguracja magistrali została zdefiniowana w standardzie SCSI-2 jako konfiguracja z kablem A. Nowelizacja SCSI-2 rozszerzyła zestaw złącz A-kablowych o opcjonalne, 50-stykowe złącze D-shell o wysokiej przepustowości. Jest ono także znane pod nazwą Alternative l. Złącze Alternative 2 (zatrzaskowe typu Centronics) pozostało w wersji nie zmienionej. W celu umożliwienia 16- i 32-bitowej transmisji danych, rozszerzono standard SCSI-2 o specyfikację 68-przewodowego kabla B. Jednakże musi on być używany równolegle z kablem A. W przemyśle nie przyjął się na większą skalę kabel B i nie występuje on już w standardzie SCSI3. W SCSI-3, kabel B został zastąpiony nowym, 68-żyłowym kablem P. Zarówno z kablem P, jak i kablem A, stosowane są ekranowane i nieekranowane, wysokiej przepustowości złącza D-shell. Złącza ekranowane używają zatrzasku wciskanego w odróżnieniu od złącz typu Centronics, używających zatrzasku drucianego. W celu zapewnienia wysokiej jakości sygnału, konieczne jest stosowanie aktywnej terminacji magistrali pojedynczej
Wyprowadzenia kabli i złącz SCSI Poniżej wyszczególniono wyprowadzenia różnych rodzajów kabli i złącz SCSI. Istnieją dwie wersje SCSJ, różniące się od siebie pod względem elektrycznym: pojedyncza oraz różnicowa. Są one elektrycznie niekompatybilne i nie mogą być ze sobą łączone, gdyż spowodowałoby to ich uszkodzenie. Na szczęście, wyprodukowano niewiele urządzeń różnicowych przeznaczonych dla komputerów PC, więc problem ten raczej nigdy nie zaistnieje. Dla obydwu elektrycznych wersji SCSI istnieją trzy typy kabli: • kabel A (standard SCSI) • kabel P (16- i 32-bitowe Wide SCSI) • kabel Q (32-bitowe Wide SCSI)
Najczęściej spotykanym kablem jest kabel A, używany w większości instalacji SCSI-1 oraz SCSI-2. Aplikacje SCS1-2 Wide (16-bitowe) używają kabla P, który w zupełności zastępuje kabel A. Łącząc kable A i P za pomocą specjalnych adapterów, możesz jednocześnie podłączać do pojedynczej magistrali urządzenia zwykłego SCSI oraz urządzenia Wide SCSI. 32-bitowe aplikacje Wide SCSI-3 używają równolegle kabli P i Q dla wszystkich urządzeń 32-bitowych. Obecnie nie ma tego typu aplikacji dla PC i ze względu na konieczność stosowania dwóch kabli, standard ten prawdopodobnie nieprędko stanie się popularny. Z kablami A można stosować złącza typu pin-header (wewnętrzne) lub zewnętrzne złącza ekranowane, każde z innym układem wyprowadzeń. Kable P i Q mają złącza z takim samym układem wyprowadzeń w połączeniach zewnętrznych i wewnętrznych. Kable i złącza pojedynczego SCSI W systemach PC najpopularniejszy jest interfejs przedstawiony w tabelach 15.8 i 15.9. Kabel A dostępny jest zarówno w konfiguracji wewnętrznej (nieekranowanej), jak i zewnętrznej (ekranowanej). Znak „-" poprzedzający nazwę sygnału oznacza, że sygnałem aktywnym jest sygnał niski (Active Łów). Linie sygnału „zarezerwowany" (RESERYED) zachowują ciągłość na całej długości magistrali. W magistrali z kablem A linie „zarezerwowany" powinny pozostać otwarte w urządzeniu SCSI (ale mogą też być połączone z masą) i połączone z masą w układach terminatorów. W przypadku kabli P i Q, linie „zarezerwowany" powinny pozostać otwarte w urządzeniach SCSI i w układach terminatorów magistrali. Tabela 15.8. . A-kcihiowe pojedyncze wewnętrzne złącze nieekranowane Nazwa sygnału
Pin
Pin
Nazwa sygnału
Masa
l
2
-DB(0)
Masa
3
4
-DB(1)
Masa
5
6
-DB(2)
Masa
7
8
-DB(3)
Masa
9
10
-DB(4)
Masa
11
12
-DB(5)
Masa
13
14
-DB(6)
Masa
15
16
-DB(7)
Masa
17
18
-DB(parytet)
Masa
19
20
Masa
Masa Zarezerwowan y
21 23
22 24
Masa Zarezerwowany
Otwarty
25
26
TERMPWR
Zarezerwowan y Masa
27
28
Zarezerwowany
29
30
Masa
Masa
31
32
-ATN
Masa
33
34
Masa
Masa
35
36
-BSY
Masa
37
38
-ACK
Masa
39
40
-RST
Masa
41
42
-MSG
Masa
43
44
-SEL
Masa
45
46
-C/D
Masa
47
48
-REO
Masa
49
50
-I/O
Tabela 15.9. Ekranowane dacze zewnętrzne kabla A pojedynczego Sygnału
Name Pin
Pin
Masa
1
26
-DB(0)
Masa
2
27
-DB(1)
Masa
3
28
-DB(2)
Masa
4
29
-DB(3)
Masa
5
30
-DB(4)
Masa
6
31
-DB(5)
Masa
7
32
-DB(6)
Masa
8
33
-DB(7)
Sygnału Name
Pin Pin
Masa 9
34 -DB(parytet)
Masa 10
35 Masa
Masa 11
36 Masa
Zarezerwowany 12
37 Zarezerwowany
Otwarty 13
38 TERMPWR
Zarezerwowany 14
39 Zarezerwowany
Masa 15
40 Masa
Masa 16
41 -ATN
Masa 17
42 Masa
Masa 18
43 -BSY
Masa 19
44 -ACK
Masa 20
45 -RST
Masa 21
46 -MSG
Masa 22
47 -SEL
Masa 23
48 -C/D
Masa 24
49 -REQ
Masa 25
50 -I/O
IBM uczynił interfejs SCSI standardem dla właściwie wszystkich systemów PS/2 produkowanych po roku 1990. Systemy te używają kontrolera Micro-Channel SCSI lub mają kontroler SCSI wbudowany w płytę główną. Niezależnie od rodzaju kontrolera, interfejs SCSI firmy IBM używa specjalnych 60-stykowych ekranowanych złączy zewnętrznych typu miniCentronics, nie używanych przez innych producentów. W celu połączenia tego typu złącza ze standardowym 50-stykowym, stosowanym w większości urządzeń SCSI, należy użyć specjalnego kabla IBM. Układ pinów 60-stykowego ekranowanego złącza zewnętrznego IBM typu mini-Centronics przedstawiony jest w Tabeli 15.10. Zauważ, że pomimo innego rozmieszczenia pinów tego złącza, ich numeracja jest taka sama jak w przypadku wewnętrznych, nieekranowanych gniazd SCSI.
Tabela 15.10. 60-stykowe ekranowane złącze zewnętrzne IBM PS/2 SCSI Nazwa sygnału
Pin
Pin
Nazwa sygnału
Masa
l
60
Nie połączony
DB(0)
2
59
Nie połączony
Masa
3
58
Nie połączony
DB(1)
4
57
Nie połączony
Masa
4
38
-DB(15)
Masa
5
39
-DB(parytetl)
Masa
6
40
-DB(0)
Masa
7
41
-DB(1)
Masa
8
42
-DB(2)
Masa
9
43
-DB(3)
Masa
10
44
-DB(4)
Masa
11
45
-DB(5)
Masa
12
46
-DB(6)
Masa
13
47
-DB(7)
Masa
14
48
-DB(parytet 0)
Masa
15
49
Masa
Masa
16
50
Masa
TERMP WR TERMP WR Zarezerw owany Masa
17
51
TERMPWR
18
52
TERMPWR
19
53
Zarezerwowany
20
54
Masa
Masa
21
55
-ATN
Masa
22
56
Masa
Masa
23
57
-BSY
Masa
24
58
-ACK
Masa
25
59
-RST
Masa
26
60
-MSG
Masa
27
61
-SEL
Masa
28
62
-C/D
Masa
29
63
-REQ
Masa
30
64
-I/O
Masa
31
65
-DB(8)
Masa
32
66
-DB(9)
Masa
33
67
-DB(10)
Masa
34
68
-DB(ll)
Kabel Q jednokońcówkowy i jego złącze stosowane są jedynie w 32-bitowych instalacjach SCSI, które wymagają również kabla P (jego układ pinów znajdziesz w tabeli 15.12). 32bitowe instalacje SCSI wciąż spotykane są jeszcze w ilościach „śladowych Tabela 15.12. Złącze wewnętrzne lub ekranowane złącze zewnętrzne kabla Ojednokońcówkowego Nazwa sygnału
Pin
Pin
Nazwa sygnału
Masa
l
35
-DB(28)
Masa
2
36
-DB(29)
Masa
3
37
-DB(30)
Masa
4
38
-DB(31)
Masa
5
39
-DB(parytet 3)
Masa
6
40
-DB(16)
Masa
7
41
-DB(17)
Masa
8
42
-DB(18)
Masa
9
43
-DB(19)
Masa
10
44
-DB(20)
Masa
11
45
-DB(21)
Masa
12
46
-DB(22)
Masa
13
47
-DB(23)
Masa
14
48
-DB(parytet 2)
Masa
1S
49
Masa
Masa
16
50
Masa
TERMP WRQ
17
S1
TERMPWRQ
TERMP WRQ
18
S2
TERMPWRQ
Zarezerw owany
19
53
Zarezerwowany
Masa
20
S4
Masa
Masa
21
55
Terminowany
Masa
22
S6
Masa
Masa
23
57
Terminowany
Masa
24
58
-ACKQ
Masa
25
59
Terminowany
Masa
26
60
Terminowany
Masa
27
61
Terminowany
Masa
28
62
Terminowany
Masa
29
63
-REQQ
Masa
30
64
terminowany
Masa
31
65
-DB(24)
Masa
32
66
-DB(25)
Masa
33
67
-DB(26)
Różnicowe sygnały SCSI Różnicowe SCSI nie jest zwykle używane w środowisku komputerów osobistych, choć bardzo chętnie stosowane jest w minikomputerach ze względu na znaczne długości magistrali, jakie dopuszcza ta konstrukcja. Mimo że złącze to nie jest zbyt popularne w mikrokomputerach, jego układ przedstawiam poniżej dla celów porównawczych. Złącze kabla A (różnicowe) jest dostępne w dwóch wersjach: jako wewnętrzne złącze nieekranowane oraz w formie zewnętrznego złącza ekranowanego. Tabela 15.13 przedstawia układ pinów kabla wewnętrznego, podczas gdy tabela 15.14 ukazuje ich układ w złączu kabla zewnętrznego. Tabela 15.13. Nieekranowane złącze wewnętrzne kabla A (różnicowe) Nazwa sygnału
Pin
Pin
Nazwa sygnału
RESET
l
2
-dysk zainstalowany
Masa
l
2
Masa
+DB(0)
3
4
-DB(0)
+DB(1)
5
6
-DB(1)
+DB(2)
7
8
-DB(2)
+DB(3)
9
10
-DB(3)
+DB(4)
11
12
-DB(4)
+DB(5)
13
14
-DB(5)
+DB(6)
15
16
-DB(6)
+DB(7)
17
18
-DB(7)
+DB(pa rytet) D1FFS ENS Zarezer wowan TERMP WR Zarezer wowan +ATN
19
20
-DP(parytet)
21
22
Masa
23
24
Zarezerwowany
25
26
TERMPWR
27
28
Zarezerwowany
29
30
-ATN
Masa
31
32
Masa
+BSY
33
34
-BSY
+ACK.
35
36
-ACK.
+RST
37
38
-RST
+MSG
39
40
-MSG
+SEL
41
42
-SEL
+C/D
43
44
-C/D
+REQ
45
46
-REQ
+1/0
47
48
-I/O
masa
49
50
masa
Tabela 15.14. Wewnętrzne lub ekranowane złącze zewnętrzne kabla Q (różnicowe) Nazwa sygnału
Pin
Pin
Nazwa sygnału
RESET
l
2
-dysk zainstalowany
+DB(28 ) +DB(29 ) +DB(30 ) +DB(31 ) +DB(pa rytet 3) Masa
l
35
-DB(28)
2
36
-DB(29)
3
37
-DB(30)
4
38
-DB(31)
5
39
-DB(parytet 3)
6
40
Masa
7
41
-DB(16)
8
42
-DB(17)
9
43
-DB(18)
10
44
-DP(19)
11
45
-DB(20)
12
46
-DB(21)
+DB(16 ) +DB(17 ) +DB(18 ) +DB(19 ) +DB(20 ) +DB(21 )
+DB(22 ) +DB(23 ) +DB(pa rytet 2) DIFFSE NS TERMP WRQ TERMP WRQ Zarezer wowan Termin owany Masa
13
47
-DB(22)
14
48
-DB(23)
15
49
-DB(parytet 2)
16
50
masa
17
51
TERMPWRQ
18
52
TERMPWRQ
19
53
Zarezerwowany
20
54
Terminowany
21
55
Masa
Termin owany +ACK Q Termin owany Termin owany Termin owany Termin owany +REQQ
22
56
Terminowany
23
57
-ACKQ
24
58
Terminowany
25
59
Terminowany
26
60
Terminowany
27
61
Terminowany
28
62
-REQQ
Termin owany Masa
29
63
Terminowany
30
64
Masa
31
65
-DB(24)
32
66
-DB(25)
33
67
-DB(26)
34
68
-DB(27)
+DB(24 ) +DB(25 ) +DB(26 ) +DB(27 )
mi nacja Końce wszystkich magistral muszą być elektrycznie terminowane; magistrala SCS1 nie stanowi tu żadnego wyjątku. Niewłaściwa terminacja nadal jest jednym z najczęstszych problemów związanych z instalacjami SCS1. Dla magistrali SCSI dostępne są trzy typy standardowych terminatorów: • bierny, • czynny, nazywany też alternatywnym 2 (Alternative 2), • terminatory FPT (przymusowej terminacji perfekcyjnej; ang. Forced Perfect Termination): FPT-3, FPT-18 oraz FPT-27. Typowe terminatory bierne (sieć oporników) dopuszczają wahania sygnału w odniesieniu do mocy sygnału terminatora znajdującego się na magistrali. Zwykle, bierne oporniki terminujące wystarczają do terminowania magistrali o niewielkich długościach, rzędu 0,5 do l metra. Do terminowania dłuższych magistrali lepiej więc zastosować terminację aktywną. Aktywnej terminacji wymaga Fast SCSI. Terminator aktywny składa się nie z oporników obniżających napięcie, lecz z regulatorów napięcia, dzięki którym uzyskiwane jest napięcie terminujące. Taki sposób organizacji terninacji sprawia, że sygnały SCSI zawsze terminowano są do odpowiedniego poziomu napięcia. Terminatory aktywne zwykle posiadają coś w rodzaju świecącej diody, informującej o zachodzeniu terminacji. Specyfikacja SCSI-2 zaleca aktywną terminację na obydwu końcach magistrali, a także wymaga jej zastosowania w przypadku korzystania z urządzeń Fast SCSI lub Wide SCSI. Większość spośród najbardziej zaawansowanych host-adapterów posiada właściwość autoterminacji. Jeśli taki host-adapter znajduje się na końcu łańcucha urządzeń, to pełni także rolę terminatora. Odmianą aktywnej terminacji jest FPT (Forced Perfect Termination), które jest jej udoskonaloną formą. W metodzie tej stosuje się diodę ciamps (stabilizatory diodowe, diody poziomujące), eliminujące sygnały o zbyt wysokim lub zbyt niskim poziomie. Sztuczka polega na tym, że zamiast stabilizowania sygnału na poziomach +5 V oraz masy, terminatory FPT stabilizują sygnał wyjściowy na dwóch regulowanych poziomach napięć. Takie rozwiązanie pozwala diodom poziomującym eliminować sygnały o zbyt wysokim lub zbyt niskim poziomie, zwłaszcza podczas transmisji przeprowadzanych z dużymi prędkościami i na duże odległości. Terminatory FPT są dostępne w kilku wersjach. Wersje FPT-3 i FPT-18 pracują w 8-bitowym standardzie SCSI, natomiast FPT-27 - w 16-bitowym (Wide) SCSI. FPT-3 wymusza dopasowanie trzech najbardziej aktywnych sygnałów 8-bitowej magistrali SCSI, podczas gdy FPT-18 - wszystkich sygnałów, z wyjątkiem masy. Także FPT-27 wymusza dopasowanie wszystkich sygnałów z wyjątkiem masy, ale na magistrali 16-bitowej Ze względu na brak standardów dotyczących kontrolera, oprogramowania interfejsu oraz obsługi ROM BIOS dysków twardych dołączonych do magistrali SCSI, standard interfejsu SCSI traci ostatnio sporo ze swej standardowości. Na szczęście jest kilka zaleceń, które umożliwiają uniknięcie horroru braku kompatybilności Na początku interfejs SCSI nie umożliwiał uruchamiania dysków twardych z magistrali SCSJ. Właśnie ze względu na niezdefiniowanie tego standardu, uruchamianie komputera (bootowanie) z tych dysków oraz korzystanie z wielu systemów operacyjnych wiązało się z wieloma problemami. Standardowe oprogramowanie IBM XT oraz AT ROM BIOS były zaprojektowane tak, by mogły komunikować się z kontrolerami dysków ST-506/412.
Oprogramowanie to można było w prosty sposób zmodyfikować, tak aby współpracowało z ESDI, ze względu na to, że kontrolery ESDI na poziomie rejestru są podobne do kontrolerów ST-506/412. Podobieństwo to umożliwiło producentom łatwe zaprojektowanie uruchamialnych i obsługiwanych przez ROM BIOS napędów ESDI. To samo można powiedzieć o interfejsie IDĘ, który w pełni emuluje interfejs kontrolera WD1003 ST-506/412 i bezbłędnie współpracuje z dotychczas tworzonym BIOS-em. SCSI różni się od pozostałych interfejsów, do tego stopnia, że aby umożliwić obsługę dysków twardych przez ROM BIOS, należało utworzyć zupełnie nowe funkcje tego systemu. Nowsze wersje systemów PS/2, dostarczane z napędami SCSI, mają tę obsługę wbudowaną w BIOS płyty głównej lub jako rozszerzenie BIOS-u na karcie kontrolera. Firmy takie jak Adaptec czy Future Domain od wielu już lat produkowały karty SCSI z wbudowaną obsługą ROM BIOS, ale funkcje tych BIOS-ów były ograniczone do obsługi napędów tylko pod kontrolą systemu DOS. BIOS-y te nie mogły pracować w trybie ATprotected ani pod kontrolą innych systemów operacyjnych. W związku z tym również korzystanie z urządzeń SCSI pod wieloma systemami operacyjnymi było niemożliwe. Od tego czasu sytuacja znacznie się poprawiła; na przykład system OS/2 firmy IBM obsługuje wiele kontrolerów niezależnych producentów, zwłaszcza kontrolery firm Adaptec i Future Domain. Ze względu na przewodnictwo firmy Apple w dziedzinie produkcji oprogramowania systemowego (systemy operacyjne oraz BIOS) obsługującego SCSI, dołączanie urządzeń peryferyjnych do systemów Apple wykonywane jest w miarę standardowo. Do niedawna brakowało takiego przewodnictwa na rynku komputerów IBM-kompatybilnych. Do 20 marca 1990 roku, kiedy to IBM wprowadził kilka „standardowych" adapterów SCSI i urządzeń peryferyjnych dla systemów IBM PS/2 z pełną obsługą systemu operacyjnego oraz ROM BIOS-u. IBM ustandardyzował interfejsy SCSI we wszystkich swoich systemach wysokiej klasy. W tych systemach karta SCSI znajduje się w jednym z gniazd rozszerzeń lub jest wbudowana w płytę główną. Taki sposób organizacji jest z wyglądu podobny do interfejsu IDĘ, ponieważ tak jak w przypadku IDĘ - od płyty głównej do napędu biegnie kabel taśmowy, ale podobieństwo jest jedynie wizualne, gdyż interfejs SCSI obsługuje do siedmiu urządzeń (niektóre z nich nie mogą być twardymi dyskami), a interfejs IDĘ -jedynie cztery urządzenia (po dwa na kontrolerze), które muszą być twardymi dyskami, napędami CD-ROM, napędami taśm lub napędami IDĘ Zip. Systemy PS/2 z napędami SCSI są łatwe do zmodernizowania i rozszerzenia, ponieważ praktycznie każdy napęd SCSI po dołączeniu do magistrali będzie funkcjonował poprawnie bez potrzeby konfi-gurowania go. Za przykładem IBM-a również inne firmy produkujące systemy komputerowe zaczęły wyposażać swoje systemy albo w kontrolery SCSI, albo w interfejsy SCSI zintegrowane z płyta główną. W miarę jak SCSI staje się coraz popularniejsze w świecie komputerów PC, integracja urządzeń peryferyjnych z komputerem powinna być coraz łatwiejsza i doskonalsza ze względu na coraz to lepszą obsługę systemów operacyjnych oraz sterowników urządzeń
Standardy ANSI SCSI Standard SCSI określa fizyczne i elektryczne parametry równoległej magistrali we/wy używane do łączenia komputerów i urządzeń peryferyjnych połączonych łańcuchowo za pomocą jednego kabla taśmowego. Standard ten obsługuje takie urządzenia jak napędy dysków, napędy taśm, napędy CD-ROM i inne. Pierwotny standard SCSI (ANSI X3.1311986) został zatwierdzony w tym samym, 1986 roku, SCSI-2 zostało zatwierdzone w styczniu 1994, a jego nowa wersja SCSI-3 jest uzgadniana podczas pisania tej książki.
Interfejs SCSI został uznany przez komisję ANSI jako standard. Nad rozwijaniem standardów przetwarzania informacji systemowych z ramienia ANSI pracuje grupa zadaniowa X3. X3T9jest oznaczeniem grupy zadaniowej zajmującej się interfejsami we/wy, a grupa X3T9.2 nadzoruje interfejsy niskiego poziomu, takie jak m.in. SCSI oraz ATA-IDE. Pierwotny standard SCSI-1 wydany został przez grupę zadaniową X3T9 ANSI w 1986 i oficjalnie opublikowany przez ANSI jako X3.131-1986. Problem z oryginalnym dokumentem SCSI-1 polega na tym, że wiele poleceń oraz właściwości zostało określonych jako dodatkowe, co nie dawało żadnej pewności, że pierwsze z brzegu urządzenie będzie je obsługiwać (a w końcu temu przecież mają służyć standardy). Problem ten skłonił przemysł do ustalenia zbioru podstawowych 18 poleceń SCSI nazwanych Common Command Set (CCS - zbiór poleceń wspólnych), który stał się minimalnym zbiorem poleceń obsługiwanych przez wszystkie urządzenia peryferyjne. CCS stał się podstawą tego, co dziś jest znane jako specyfikacja SCSI-2. Prócz formalnej obsługi podstawowego zbioru poleceń, SCSI -2 wprowadza dodatkowe definicje poleceń służących uzyskiwaniu dostępu do napędów CD-ROM (i ich możliwości dźwiękowych), napędów taśm, dysków przenośnych optycznych i wielu innych jeszcze urządzeń peryferyjnych. Oprócz tego, specyfikacja SCSI-2 zdefiniowała większą, opcjonalną szybkość nazwaną Fast SCSI, oraz 1'6-bitową wersję SCSI, nazwaną Wide SCSI-2. Inną właściwością SCSI-2 jest kolejkowanie poleceń (ang. command queing), które umożliwia urządzeniu przyjmowanie jednocześnie wielu poleceń i wykonywanie ich w kolejności, która wydaje się najefektywniejsza. Właściwość ta jest szczególnie przydatna, gdy urządzenia SCSI działają w środowisku wielozadaniowego systemu operacyjnego, który potrafi przesyłać do magistrali SCSI kilka żądań jednocześnie. Grupa X3T9 zaakceptowała standard SCSI-2 jako X.3.131-1990 w sierpniu 1990 roku, lecz oficjalny dokument został cofnięty w grudniu 1990, w celu wprowadzenia poprawek przed ostatecznym jego opublikowaniem, które nastąpiło dopiero w styczniu 1994 roku, mimo iż poprawek nie było zbyt wiele. Dokument, w którym standard SCSI-2 został ostatecznie opublikowany, nosi nazwę ANSI X3.131-1994. Uzyskać go można od firmy Global Engineering Documents lub od komisji ANSI. Wersje robocze tych dokumentów można skopiować z BBS-u NCR SCSI. Większość firm informuje, że produkowane przez nie kontrolery stosują się zarówno do standardu ANSI X3.131-1986 (SCSI-l)Jak i ANSI X3.1311994 (SCSI-2). Proszę zauważyć, że ponieważ praktycznie wszystkie założenia SCSI-1 są obsługiwane przez standard SCSI-2, właściwie wszystkie urządzenia SCSI-1 są automatycznie uważane za odpowiadające SCSI-2. Wielu producentów reklamuje więc swoje produkty jako SCSI-2 (lub zgodne z SCSI-2), co nie oznacza, że potrafią one obsługiwać którekolwiek z dodatkowych poleceń ujętych w standardzie SCSI-2 (i nie objętych przez SCSI-1). Opcjonalną (dodatkową) częścią specyfikacji SCSI-2 jest obsługa szybkiego trybu synchronicznego, który dwukrotnie zwiększa szybkość przesyłu danych z 5 MB/s do 10 MB/s. Ten tryb szybkiego transferu SCSI w połączeniu z 16-bitową architekturą Wide SCSI zwiększa szybkość przesyłu do 20 MB/s. W specyfikacji SCSI-2 została określona również jej opcjonalna, 32-bitowa wersja, którą producenci odrzucili jako zbyt kosztowną. Większość implementacji SCSI obecnie to 8-bitowe lub Fast/Wide SCSI. Jednak nawet urządzenia nie obsługujące ani trybu Fast, ani Wide mogą być uznawane za SCSI-2. Standard SCSI-3 nadal jest definiowany i wciąż długa przed nim droga do zdobycia pełnej akceptacji. Mimo iż nie został jeszcze zatwierdzony, wykorzystywany jest obecnie w wielu urządzeniach. Niektóre z tych udoskonaleń to tryb Fast-20, nazywany również LJItra-SCSI, umożliwiający przesyłanie danych z prędkością SCSI 4X, czyli 20 MB/s w magistrali 8-bitowej i 40 MB/s w magistrali Wide (16-bitowej).
Kontrolery SCSI-1 nie mają żadnego problemu z urządzeniami peryferyjnymi SCSI-2. W zasadzie, jak wcześniej wspomniałem, każde urządzenie SCSI-1 formalnie może być nazwane urządzeniem SCSI-2 (a nawet SCSI-3). Oczywiście, kontroler SCSI-1 nie pozwala na wykorzystanie możliwości przesyłania w trybach Fast, Fast-20 czy też Wide, ale dodatkowe polecenia określone w SCSI-2 mogą być przesyłane za pomocą kontrolera SCSI-1. Innymi słowy, nic nie różni urządzeń SCSI-1 od SCSI-2. Jeśli na przykład dysk Seagate Barracuda 4 GB Fast SCSI-2, którego używam, jest podłączony do kontrolera IBM SCSI-1, jego działanie będzie zupełnie poprawne. Podobnie jest z większością kontrolerów, które są kompatybilne z SCSI-2, nawet gdy są reklamowane jako umożliwiające obsługę SCSI-1. Ponieważ standard SCSI-2 formalnie nie został zatwierdzony przed styczniem 1994 r., wszelkie urządzenia opisywane przed tym terminem jako zgodne ze SCSI-2, oficjalnie takimi nie były. Nie stanowi to oczywiście problemu, gdyż dokumentacja SCSI-2 nie zmieniła się prawie wcale od czasu pierwszego przedłożenia jej do zatwierdzenia w 1990 roku. Ta sama sytuacja zdarza się również obecnie, kiedy to wiele urządzeń sprzedawanych jest jako kompatybilne ze standardem SCSI-3. Specyfikacja SCSI-3 nie jest bowiem jeszcze zatwierdzona, choć pewne jej elementy od jakiegoś czasu są już przez przemysł wykorzystywane.
Technologia budowy dysków twardych SCSI i jej rozwój SCSl nie jest interfejsem dysku, lecz magistralą obsługującą kontrolery interfejsów SCSI urządzeń z nią połączonych. Pierwsze napędy SCSl dla komputerów PC były zwykłymi napędami ST-506/412 lub ESD1 wyposażonymi w oddzielny kontroler interfejsu magistrali SCSI, który zmieniał interfejs ST-506/412 lub ESD1 na zgodny ze specyfikacją SCSI. Interfejs ten miał pierwotnie formę drugiej płytki montowanej w osobnym pudełku (zewnętrznym, w stosunku do obudowy komputera). Następnym krokiem w rozwoju było wbudowanie płytki „konwertera" interfejsu magistrali SCSI bezpośrednio na płycie logicznej napędu. Ze względu na wbudowanie interfejsu SCSI w te płyty, napędy takie nazywamy dziś napędami osadzonymi SCSI. Od tej chwili potrzeba dokładnego stosowania się do specyfikacji ST-506/412 lub ESD1 w przypadku interfejsów dysków wewnętrznych przestała istnieć, ponieważ jedyne urządzenie, z którym interfejs musiałby się kiedykolwiek komunikować, zostało wbudowane w napęd. W związku z tym, producenci interfejsów dysków oraz chipsetów (zestawów kości) kontrolerów zaczęli rozwijać bardziej wyspecjalizowane chipsety, które nadal oparte były na chipsetach ST-506/412 lub ESD1, lecz oferowały większy wybór funkcji oraz lepszą wydajność. Jeśli obecnie przyjrzysz się typowym napędom SCSI, zauważysz, że często kość lub zestaw kości obsługujący kontroler dysku tych napędów jest tego samego rodzaju, co kości używane w kontrolerach ST-506/412 lub ESD1, ewentualnie jakąś ich ewolucyjną odmianą. Rozważ kilka przykładów. Napęd ATA-1DE musi w pełni emulować interfejs kontrolera systemowego dysku wprowadzonego w serii WD1003 kontrolerów firmy Western Digital, której IBM używał w systemach AT. Napędy ATA-1DE muszą więc działać tak, jakby miały wbudowany kontroler ST-506/412 lub ESD1 - i tak działają. Większość tych napędów ma więcej możliwości niż kontrolery serii WD1003 (zwykle dzięki dodatkowym poleceniom), wszystkie natomiast muszą odpowiadać na każde z oryginalnych poleceń używanych w WD1003.Jeśli zechcesz przyjrzeć się rynkowi dysków twardych, zauważysz, że producenci napędów oferują swoje najnowsze dyski zarówno w wersji ATA-1DE, jak i SCSI. Jeśli zatem producent sprzedaje napęd IDĘ 4 GB, zwykle możesz założyć, że sprzedaje również model SCSl o tej samej pojemności i danych technicznych, używający tego samego zespołu głowic (HDA) i wyglądający nawet bardzo podobnie do wersji IDĘ. Jeśliby dokładnie porównać oba napędy, jedyną zapewne poważniejszą różnicę stanowiłaby dodatkowa kość znajdująca się na płytce logicznej wersji SCSI tego napędu. Jest to SBIC (SCSI Bus Adapter Chip), czyli kość kontrolera magistrali SCSl.
Rysunki 15.1 i 15.2 przedstawiają schematy logiczne napędów, odpowiednio: WD-AP4200 (napęd ATA-1DE 200 MB) oraz WD-SP4200 (napęd SCSl 200 MB). Napędy te używają tego samego zespołu głowic (tego samego HDA) i różnią się jedynie tym, że na płytce logicznej napędu SCSI znajduje się dodatkowa kość SCSI - poza tym nawet płytki logiczne tych dwóch dysków są takie same Rysunek15.1 Schemat blokowy układów płytki logicznej napędu W D AP4200 200MB ATA-lDE
Oba napędy używają kości kontrolera dysku typu LS1 (Large Scalę of Integration) i menedżera buforu WD42C22. W napędzie ATA kość ta jest połączona, przy użyciu kości kontroli DMĄ, bezpośrednio do magistrali AT. W wersji SCSI, w celu utworzenia interfejsu płyty logicznej kontrolera dysku, do magistrali SCSI dodana jest kość WD33C93. I tym jedynie różnią się oba schematy logiczne tych dwóch napędów, że wersja SCSI jest napędem ATA z dołączonym do niego układem logicznym kontrolera interfejsu magistrali SCSI. Łatwo zauważyć, że główna kość LSI tej płyty jest tą samą kością WD42C22 kontrolera dysku, która obsługuje napędy IDĘ oraz SCSI. Oto, co o tej kości mówi dokumentacja techniczna: WD42C22 łączy wysokowydąjną i niedrogą architekturę kontrolera Winchester w jedną całość. WD42C22 integruje bowiem centralne składniki podsystemu kontrolera Winchester, takie jak: główny interfejs, menedżer buforu, formater/kontroler dysku, koder/dekoder, generator/kontroler CRC/ECC (cyklicznej kontroli redundancji/kodu korekcji błędu) oraz interfejs napędu do postaci pojedynczego 84-pinowego urządzenia POFP (Plastic Quad Flat Pack - ang. dosł. plastikowy czteropoziomowy układ).
Rysunek15.2 Schemat blokowy układów płytki logicznej napędu WD AP4200 200 MB SCSI
Właściwie identyczna budowa napędów ATA-IDE oraz SCSI nie jest specyficzna tylko dla napędów Western Digital. Większość producentów projektuje napędy ATA-IDE oraz SCSI w ten sam sposób, często używając tych samych kości WD, tego samego kontrolera dysku oraz tych samych kości interfejsu SCSI, co inni producenci. Nie powinien Cię więc teraz dziwić fakt, że większość napędów SCSI to zwykłe napędy ATA-IDE z dołączonymi do nich układami logicznymi magistrali SCSI. Będzie o tym mowa również w dalszej części niniejszego rozdziału w punkcie „SCSI versus IDĘ", który omawia sprawę wydajności oraz innych zagadnień różniących te dwa interfejsy. Mam również kilka dysków twardych z osadzonym SCSI-2 o pojemności 320 MB i 400 MB; w płytę każdego z nich wbudowany jest programowalny kontroler dysków WD-10COO w postaci 68-pinowego PLCC (Plastic Leaded Chip Carrier - ang. dosł. pokrytego plastikiem nośnika kości). Dokumentacja techniczna opisuje to w następujący sposób
Rysunek15.3 Schemat blokowy kontrolera dysku Western Digital WD1006VMM1 ST-506/412
Ten układ scalony obsługuje interfejsy ST412, ESDI, SMD oraz Optical. Jego maksymalna szybkość transferu wynosi 27 MB/s. Posiada wewnętrzne, w pełni programowalne 48- lub 32bitowe ECC, 16-bitowe CRC-CCITT lub zewnętrzne, definiowalne przez użytkownika wielomianowe ECC, a także w pełni programowalny rozmiar sektora. Układ został zaprojektowany w technologii CMOS typu 1,25 mikrona o niskim poborze mocy. Dodatkowo, te szczególne osadzone napędy SCSI mają układ 33C93 kontrolera interfejsu magistrali SCSI, używany również w innym napędzie SCSI, o którym wcześniej wspomniałem. Kontroler dysku został oddzielony, dodano natomiast interfejs SCSI. Tak więc większość osadzonych napędów SCSI ma wbudowany kontroler dysku (zazwyczaj oparty na wcześniejszych projektach ST-506/412 lub ESDI) oraz dodatkowy układ logiczny, łączący kontroler z magistralą SCSI (można go nazywać wbudowanym kontrolerem mostka). Teraz spójrzmy na to pod kątem osiągów. Skoro właściwie wszystkie napędy SCSI są praktycznie napędami ATA-IDE, z dodanym układem kontrolera interfejsu magistrali SCSI, to co z tego może wynikać? Po pierwsze, żaden napęd nie może przeprowadzać długotrwałego transferu danych z szybkością większą niż szybkość odczytu danych z talerzy dysku. Innymi słowy, zespół dysku (HDA) narzuca własne, nieprzekraczalne ograniczenie wydajności. Napędy mogą przesyłać dane w krótkich seriach, z bardzo dużą prędkością, ponieważ mają wbudowane bufory cache, które przechowują dane. Wiele z nowszych, wysoko wydajnych napędów SCSI i ATA-IDE ma wbudowaną pamięć cache o pojemności l MB lub większej! Jednak, niezależnie od tego, jak duża i jak inteligentna jest pamięć cache, długotrwały transfer danych jest ograniczany przez możliwości zespołu głowic
Dane z tego zespołu muszą przejść przez obwody kontrolera dysku, które w napędach SCSI są praktycznie takie same jak w ATA-IDE. W napędzie ATA-IDE dane te są bezpośrednio przekazywane na magistralę systemową. Z kolei w napędzie SCSI dane najpierw muszą przejść przez wbudowany adapter interfejsu magistrali SCSI, następnie być przesłane przez samą magistralę SCSI, a następnie przejść przez kolejny kontroler interfejsu, znajdujący się na karcie host-adaptera. Dłuższa droga, jaką muszą pokonać dane, sprawia, że transfer SCSI jest wolniejszy niż bezpośredni transfer ATA-IDE. Panuje powszechne przekonanie, że SCSI jest dużo szybsze od IDĘ. Niestety, zwykle jest to przekonanie błędne. Powstało ono na skutek porównywania wyłącznie „surowych" możliwości magistrali 1SA i SCSI. 8-bitowa magistrala Fast SCSI-2 może przesyłać dane z prędkością 10 MB/s, a 16-bitowa magistrala ISA, z której korzystają napędy IDĘ, przesyła dane z prędkością od 2 do 8 MB/s. Porównując tylko prędkości transferu danych przez magistralę, można dojść do wniosku, że SCSI jest szybsze. W rzeczywistości prędkość transferu nie jest ograniczeniem, są nim natomiast obwody kontrolera dysku oraz zespół głowic. Warto także pamiętać, że jeśli nie korzystasz z adaptera PCI, VL-BUS, EISA lub 32-bitowego adaptera MCA SCSI, szybkość transferu danych SCSI będzie ograniczona wydajnością magistrali głównej oraz napędu. Z drugiej strony, nowoczesne systemy operacyjne są wielozadaniowe, a urządzenia SCSI (z ich wszystkimi dodatkowymi obwodami kontrolerów) pracują niezależnie od siebie (w odróżnieniu od urządzeń IDĘ). Powoduje to, że dane mogą być równocześnie odczytywane i wysyłane do każdego urządzenia SCSI, czego efektem jest sprawniejsza wielozadaniowość oraz zwiększona całkowita przepustowość. Najbardziej zaawansowane systemy operacyjne, takie jak Windows NT, umożliwiają nawet łączenie napędów w struktury. Zestaw taki to dwa lub więcej napędów, które użytkownik widzi jako jeden. Dane są równo dzielone między poszczególne dyski, co zwiększa ich całkowitą przepustowość. Więcej informacji na ten temat znajdziesz pod adresem internetowym: http://www.microsoft.com/kb/articles/ql 13/9/33.htm
Pojedyncze lub różnicowe SCSI „Zwykłe" SCSI często nazywane jest terminem single-ended (można to rozumieć jako niesymetryczne, jednokońcówkowe czy pojedyncze). Każdy sygnał jest przesyłany przez magistralę jednym, właściwym dla tego sygnału przewodem. W różnicowym SCSI każdy sygnał jest przesyłany parą przewodów. Pierwszy przewód przenosi taki sam sygnał jak w przypadku trybu pojedynczego SCSI, natomiast drugi przenosi logiczne odwrócenie tego sygnału. Urządzenie odbierające odczytuje różnicę tych sygnałów (stąd nazwa różnicowe SCSf). Takie rozwiązanie zmniejsza wrażliwość na zakłócenia i pozwala na stosowanie dłuższych przewodów. Różnicowe SCSI może korzystać z kabli o długości do 25 m, podczas gdy pojedyncze SCSI działa poprawnie tylko przy długości kabla mniejszej niż 6 m dla standardowych transferów synchronicznych i asynchronicznych oraz mniejszej niż 3 m dla Fast SCSI. Urządzenia pojedyncze oraz urządzenia różnicowe nie mogą być jednocześnie podłączone do magistrali SCSI - rezultat byłby katastrofalny (i towarzyszyłby mu dym!).
Pomyłka jest możliwa, ponieważ kable i złącza obydwu typów urządzeń są takie same. Zwykle jednak nie stanowi to problemu, gdyż bardzo niewiele urządzeń korzysta z różnicowego SCSI. Zwłaszcza w środowisku PC będziesz mieć do czynienia niemal wyłącznie z urządzeniami pierwszego rodzaju. Jeśli mimo wszystko natrafisz na urządzenie, które może sprawiać wrażenie różnicowego, jest kilka sposobów sprawdzenia, czy rzeczywiście nim jest. Pierwszy polega na znalezieniu specjalnego oznaczenia na urządzeniu. Typ singie-ended i różnicowe SCSI fabrycznie oznaczane są za pomocą różnych symboli, które przedstawia rysunek 15.4. Rysunek 15.4. Uniwersalne symbole pojedynczego i różnicowego SCSI
Pojedynczy
Jeśli nie dostrzegasz takich symboli, możesz sprawdzić, czy urządzenie jest różnicowe, za pomocą omometru. Przy użyciu omometru mierzysz oporność pomiędzy pinami 21 i 22 na złączu urządzenia. W systemie pojedynczym końcówki te powinny być zwarte ze sobą oraz z masą. W urządzeniu różnicowym powinny być otwarte i powinna występować miedzy nimi dość duża oporność. Ale raczej nie natkniesz się na ten typ urządzeń, gdyż niemal wszystkie urządzenia SCSI pracujące w środowisku PC to urządzenia z pojedynczym przesyłem.
SCSI-1 i SCSI-2 Specyfikacja SCSI-2 jest w zasadzie ulepszoną wersją SCSI-1. Udoskonalono niektóre części specyfikacji oraz dodano kilka nowych funkcji oraz opcji. Urządzenia SCSI-1 i SCSI-2 są kompatybilne, a,e SCSI-1 ignoruje elementy dodane w SCSI-2 (nie obsługuje ich). Niektóre zmiany w SCSI-2 są bardzo nieznaczne. Na przykład, w SCSI-1 kontrola parzystości magistrali była opcjonalna, natomiast w SCSI-2 jest zaimplementowana na stałe. Innym wymogiem jest, aby urządzenia inicjujące, jak host-adaptery, zasilały terminatory, co i tak większość urządzeń czyni.
SCSI-2 ma także kilka elementów opcjonalnych: • FastSCSI • WideSCSI • Kolejkowanie poleceń • Złącza kablowe o wysokiej przepustowości • Ulepszona terminacja aktywna (Alternative 2) Są to tylko opcje. Jeśli podłączysz np. napęd Fast SCSI do host-adaptera standardowego SCSI, interfejs będzie działał, ale z prędkościami właściwymi dla standardowego SCSI.
SCSI-3 SCSJ-3 jest nazwą używaną do opisu zestawu wprowadzanych obecnie standardów. Jest to po prostu nowa generacja dokumentów, z którymi produkt musi być zgodny. Patrz „Nowe polecenia" w dalszej części tego rozdziału.
Fast i Fast-Wide SCSI Fast SCSI oznacza zdolność przeprowadzania synchronicznego transferu danych z dużą szybkością. Przy standardowym, 8-bitowym okablowaniu SCSI, Fast SCSI może osiągnąć prędkość transferu do 10 MB/s. W połączeniu z 16-bitowym interfejsem Wide SCSI, prędkość wzrasta do 20 MB/s (konfiguracja nazywana Fast/Wide).
Fast-20 (Ultra) SCSI Fasl-20, czyli Ultra SCSf oznacza zdolność przeprowadzania synchronicznego transferu danych z szybkością dwukrotnie większą niż w przypadku Fast SCSI. Rozwiązanie to wprowadzono w szkicu specyfikacji SCSI-3 i jest obecnie stosowane przede wszystkim w bardzo szybkich twardych dyskach. Przy standardowym okablowaniu Ultra SCSI osiąga prędkość transferu 20 MB/s. W połączeniu z 16-bitowym interfejsem Wide SCSI osiąga prędkość 40 MB/s (konfiguracja nazywana Ultra/Wide).
Fast-40 SCSI Fast-40 SCSI jest przewidywaną nowelizacją SCSI-3 (wspomnianego wcześniej w tym rozdziale), umożliwiającą uzyskanie prędkości transferu 40 MB/s.
Wide SCSI Wide SCSI umożliwia równoległy transfer danych poprzez 16-bitową magistralę. Rozszerzone połączenie wymaga stosowania nowych kabli. Standardowy 50żyłowy, 8-bitowy przewód nazywany jest kablem A (A cable). Specyfikacja SCSI2 pierwotnie zdefiniowała specjalny, 68-żyłowy kabel B, który miał być używany razem z kablem A, ale wytwórcy zignorowali tę specyfikację na korzyść nowszego, 68-żyłowego kabla P. Stał się on częścią specyfikacji SCSI-3. Kabel P wyparł kombinację kabli A i B, ponieważ może być używany samodzielnie (bez kabla A) w konfiguracjach Wide SCSI.
32-bitowa wersja Wide SCSI została pierwotnie zaprojektowana na papierze jako część specyfikacji SCSI-2, ale nie zyskała popularności w środowisku PC i prawdopodobnie długo jej tu nie znajdzie. Teoretycznie, 32-bitowe implementacje SCSI wymagałyby dwóch kabli: 68-żyłowego kabla P i 68-żyłowego kabla Q.
Światłowodowe SCSI Światłowodowe SCSI jest specyfikacją interfejsu szeregowego, używającego światłowodowego łącza i charakterystyki protokołu, z zestawem poleceń SCSI. Umożliwia przesyłanie danych z szybkością 100 MB/s, przy zastosowaniu kabla światłowodowego lub koncentrycznego.
Terminacja Poprawne funkcjonowanie magistrali SCSI o pojedynczym sygnale zależy od ścisłej tolerancji względem napięć terminujących. Niestety, 132-omowa terminacja, zdefiniowana w dokumencie SCSI-1, nie była przewidziana do pracy przy wysokich prędkościach, jakie można obecnie osiągnąć w transmisji synchronicznej. Te pasywne terminatory mogą powodować odbicia sygnału, powodujące błędy przy zwiększonej prędkości transferu lub przy dołączeniu do magistrali kilku urządzeń. SCSI-2 definiuje stabilizowany napięciowo terminator aktywny, obniżający impedancję do 110 omów i poprawiający niezawodność systemu.
Kolejkowanie poleceń W specyfikacji SCSI-1 urządzenie inicjujące, takie jak host-adapter, mogło wysyłać tylko po jednym poleceniu do jednego urządzenia. W SCSI-2, hostadapter może wysłać do 256 poleceń, które będą przechowywane i przetwarzane przez urządzenie przed wysłaniem przez nie sygnału odpowiedzi do magistrali SCSI. Urządzenie docelowe może nawet zmienić kolejność poleceń, w celu wydajniejszego ich wykonania. Właściwość ta jest szczególnie przydatna w środowiskach wielozadaniowych, takich jak OS/2 czy WindowsNT, które mogą ją odpowiednio wykorzystać.
Nowe polecenia Powszechnie używana przez producentów tzw. Wspólna lista rozkazów (Common Command Set) została oficjalną częścią standardu SCSI-2. Lista ta była przeznaczona głównie dla napędów dysków i nie zawierała poleceń specyficznych dla urządzeń innych rodzajów. W SCSI-2 zmodyfikowano wiele starszych rozkazów, dodano także kilka nowych: dla CD-ROM-ów, napędów optycznych, skanerów, urządzeń komunikacyjnych oraz zmieniaczy płyt (np. szaf grających).
SCSI-3 Choć specyfikacja SCSI-2 została przyjęta niedawno (aczkolwiek od dłuższego czasu nie ulegała już żadnym zmianom), obecnie rozwija się już specyfikacja SCSI-3. Będzie ona zawierać wszystko to, co jej poprzedniczka, a oprócz tego nowe polecenia, funkcje i właściwości. Przykładowo, SCSI-3 będzie mogło obsługiwać do 32 urządzeń dołączonych do magistrali, zamiast jedynie ośmiu właściwych dla standardowego SCSI.
Do najciekawszych propozycji SCSI-3 należy szeregowe SCSI (Serial SCSI), układ używający tylko 6-żyłowego kabla i umożliwiający transfer danych z prędkością do 100 MB/s! Przejście z transmisji równoległej na szeregową pozwoli uregulować problemy opóźnień, zakłóceń oraz terminacji, które były zmorą SCSI-2, a także uprości połączenia kablowe. Szeregowe SCSI będzie w stanie przesłać więcej danych przewodem 6-żyłowym, niż 32-bitowe Fast Wide SCSI może przesłać za pomocą 128 żył! Planuje się instalowanie szeregowego SCSI na płytach głównych przyszłych systemów, co umożliwi fenomenalną poprawę ich wydajności oraz możliwości rozbudowy systemów. Szeregowe SCSI nie sprawi, że starsze host-adaptery i kable w ciągu jednej nocy staną się przestarzałe, spowoduje jednak, że okablowanie będzie w przyszłości przypominało układankę. Szeregowe SCSI umożliwia stosowanie dłuższych kabli, zmniejsza zakłócenia elektromagnetyczne i ułatwia podłączanie laptopów, notebooków i stacji dekujących. Oczekuje się, że SCSI-3 pozwoli na bezproblemową instalację z automatycznym (PnP) konfigurowaniem SCSI ID oraz układami terminującymi. Minie jeszcze trochę czasu, zanim standard SCSI-3 zostanie formalnie przyjęty. Ale istnieje w postaci dokumentów projektowych i jeśli jakieś jego elementy okażą się stabilne, możemy oczekiwać, że jeszcze przed jego formalnym przyjęciem pojawią się na rynku produkty reklamowane jako kompatybilne z SCSI-3 (już się pojawiły - przyp. tłum.). Ponieważ standard ten zawiera w sobie elementy SCSI-2, właściwie każdy może nazywać urządzenia SCSI-1 i SCSI-2 urządzeniami SCSI-3. Podchodź więc ostrożnie do tak reklamowanych produktów. Niektóre z nowych elementów SCSI-3 prawdopodobnie będą niekompatybilne z wcześniejszymi implementacjami SCSI, więc na ich pojawienie się na rynku trzeba będzie zapewne poczekać trochę dłużej.
Kable i złącza SCSI Standardy SCSI dotyczące kabli i złączy są bardzo specyficzne. Najpowszechniej stosowanymi typami złączy określonych w tym standardzie są: 50-stykowe, nieekranowane złącze typu pin-header, używane do wewnętrznych połączeń SCSI, oraz 50-stykowe, ekranowane, zatrzaskowe złącza typu Centronics do połączeń zewnętrznych. W oficjalnej specyfikacji ekranowane złącze typu Centronics występuje pod nazwą Alternative 2. Zarówno magistrala pojedyncza, jak i magistrala różnicowa, umożliwiają stosowanie zarówno pasywnej, jak i aktywnej terminacji (preferuje się aktywną). 50-przewodowa konfiguracja magistrali została zdefiniowana w standardzie SCSI-2 jako konfiguracja z kablem A. Nowelizacja SCSI-2 rozszerzyła zestaw złącz A-kablowych o opcjonalne, 50stykowe złącze D-shell o wysokiej przepustowości. Jest ono także znane pod nazwą Alternative l. Złącze Alternative 2 (zatrzaskowe typu Centronics) pozostało w wersji nie zmienionej. W celu umożliwienia 16- i 32-bitowej transmisji danych, rozszerzono standard SCSI-2 o specyfikację 68-przewodowego kabla B. Jednakże musi on być używany równolegle z kablem A. W przemyśle nie przyjął się na większą skalę kabel B i nie występuje on już w standardzie SCSI-3. W SCSI-3, kabel B został zastąpiony nowym, 68-żyłowym kablem P. Zarówno z kablem P, jak i kablem A, stosowane są ekranowane i nieekranowane, wysokiej przepustowości złącza D-shell. Złącza ekranowane używają zatrzasku wciskanego w odróżnieniu od złącz typu Centronics, używających zatrzasku drucianego. W celu zapewnienia wysokiej jakości sygnału, konieczne jest stosowanie aktywnej terminacji magistrali pojedynczej
Wyprowadzenia kabli i złącz SCSI Poniżej wyszczególniono wyprowadzenia różnych rodzajów kabli i złącz SCSI. Istnieją dwie wersje SCSJ, różniące się od siebie pod względem elektrycznym: pojedyncza oraz różnicowa. Są one elektrycznie niekompatybilne i nie mogą być ze sobą łączone, gdyż spowodowałoby to ich uszkodzenie. Na szczęście, wyprodukowano niewiele urządzeń różnicowych przeznaczonych dla komputerów PC, więc problem ten raczej nigdy nie zaistnieje. Dla obydwu elektrycznych wersji SCSI istnieją trzy typy kabli: • kabel A (standard SCSI) • kabel P (16- i 32-bitowe Wide SCSI) • kabel Q (32-bitowe Wide SCSI) Najczęściej spotykanym kablem jest kabel A, używany w większości instalacji SCSI-1 oraz SCSI-2. Aplikacje SCS1-2 Wide (16-bitowe) używają kabla P, który w zupełności zastępuje kabel A. Łącząc kable A i P za pomocą specjalnych adapterów, możesz jednocześnie podłączać do pojedynczej magistrali urządzenia zwykłego SCSI oraz urządzenia Wide SCSI. 32-bitowe aplikacje Wide SCSI-3 używają równolegle kabli P i Q dla wszystkich urządzeń 32-bitowych. Obecnie nie ma tego typu aplikacji dla PC i ze względu na konieczność stosowania dwóch kabli, standard ten prawdopodobnie nieprędko stanie się popularny. Z kablami A można stosować złącza typu pin-header (wewnętrzne) lub zewnętrzne złącza ekranowane, każde z innym układem wyprowadzeń. Kable P i Q mają złącza z takim samym układem wyprowadzeń w połączeniach zewnętrznych i wewnętrznych.
Kable i złącza pojedynczego SCSI W systemach PC najpopularniejszy jest interfejs przedstawiony w tabelach 15.8 i 15.9. Kabel A dostępny jest zarówno w konfiguracji wewnętrznej (nieekranowanej), jak i zewnętrznej (ekranowanej). Znak „-" poprzedzający nazwę sygnału oznacza, że sygnałem aktywnym jest sygnał niski (Active Łów). Linie sygnału „zarezerwowany" (RESERYED) zachowują ciągłość na całej długości magistrali. W magistrali z kablem A linie „zarezerwowany" powinny pozostać otwarte w urządzeniu SCSI (ale mogą też być połączone z masą) i połączone z masą w układach terminatorów. W przypadku kabli P i Q, linie „zarezerwowany" powinny pozostać otwarte w urządzeniach SCSI i w układach terminatorów magistrali. Tabela 15.8. A-kablowe pojedyncze wewnętrzne złącze nieekranowane Nazwa sygnału
Pin
Pin
Nazwa sygnału
Masa Masa
l 3
2 4
-DB(0) -DB(1)
Masa
5
6
-DB(2)
Masa
7
8
-DB(3)
cd. na następnej stronie
Tabela 15.8. cd. A-kablowe pojedyncze wewnętrzne złącze nieekranowane Nazwa sygnału Pin Pin Nazwa sygnału Masa 9 10 -DB(4) Masa 11 12 -DB(5) Masa 13 14 -DB(6) Masa 15 16 -DB(7) Masa 17 18 -DB(parytet) Masa 19 20 Masa Masa 21 22 Masa Zarezerwowany 23 24 Zarezerwowany Otwarty 25 26 TERMPWR Zarezerwowany 27 28 Zarezerwowany Masa 29 30 Masa Masa 31 32 -ATN Masa 33 34 Masa Masa 35 36 -BSY Masa 37 38 -ACK Masa 39 40 -RST Masa 41 42 -MSG Masa 43 44 -SEL Masa 45 46 -C/D 47 48 -REO Masa Masa 49 50 -I/O Tabela 15.9. Ekranowane złącze zewnętrzne kabla A pojedynczego Sygnału Masa Masa Masa Masa Masa Masa Masa Masa
Name Pin 1 26 2 27 3 28 4 29 5 30 6 31 7 32 8 33
Pin -DB(0) -DB(1) -DB(2) -DB(3) -DB(4) -DB(5) -DB(6) -DB(7)
Tabela 15.9. cd. Ekranowane złącze zewnętrzne kabla A pojedynczego Sygnału Name Masa 9 Masa 10 Masa 11 Zarezerwowany 12 Otwarty 13 Zarezerwowany 14 Masa 15 Masa 16 Masa 17 Masa 18 Masa 19 Masa 20 Masa 21 Masa 22 Masa 23 Masa 24 Masa 25
Pin Pin 34 -DB(parytet) 35 Masa 36 Masa 37 Zarezerwowany 38 TERMPWR 39 Zarezerwowany 40 Masa 41 -ATN 42 Masa 43 -BSY 44 -ACK 45 -RST 46 -MSG 47 -SEL 48 -C/D 49 -REQ 50 -I/O
IBM uczynił interfejs SCSI standardem dla właściwie wszystkich systemów PS/2 produkowanych po roku 1990. Systemy te używają kontrolera Micro-Channel SCSI lub mają kontroler SCSI wbudowany w płytę główną. Niezależnie od rodzaju kontrolera, interfejs SCSI firmy IBM używa specjalnych 60-stykowych ekranowanych złączy zewnętrznych typu mini-Centronics, nie używanych przez innych producentów. W celu połączenia tego typu złącza ze standardowym 50stykowym, stosowanym w większości urządzeń SCSI, należy użyć specjalnego kabla IBM. Układ pinów 60-stykowego ekranowanego złącza zewnętrznego IBM typu mini-Centronics przedstawiony jest w Tabeli 15.10. Zauważ, że pomimo innego rozmieszczenia pinów tego złącza, ich numeracja jest taka sama jak w przypadku wewnętrznych, nieekranowanych gniazd SCSI. Tabela 15.10. 60-stykowe ekranowane złącze zewnętrzne IBM PS/2 SCSI Nazwa Pin Pin Nazwa sygnału sygnału Masa l 60 Nie połączony DB(0) 2 59 Nie połączony Masa 3 58 Nie połączony DB(1) 4 57 Nie połączony ca. na następnej strome
Tabela 15.10. cd. 60-stykowe ekranowane dacze zewnętrzne IBM PS/2 SCSI Nazwa sygnału Pin Pin Nazwa sygnału Masa 5 56 Nie połączony DB(2) 6 55 Niepołączony Masa 7 54 Nie połączony DB(3) 8 53 Niepołączony Masa 9 52 Nie połączony DB(4) 10 51 Masa Masa 11 50 -I/0 DB(5) 12 49 Masa Masa 13 48 -REQ DB(6) 14 47 Masa Masa 15 46 -C/D DB(7) 16 45 Masa Masa 17 44 -SEL DB(parytet) 18 43 Masa Masa 19 42 -MSG Masa 20 41 Masa Masa 21 40 -RST Masa 22 39 Masa Zarezerwowany 23 38 –ACK Zarezerwowany 24 37 Masa Otwarty 25 36 -BSY TERMPWR 26 35 Masa Zarezerwowany 27 34 Masa Zarezerwowany 28 33 Masa W 16-bitowych instalacjach Wide SCSI-2 używany jest kabel P jednokońcówkowy oraz złącza o następującym układzie pinów. Tabela 15.11. Złącze wewnętrzne lub ekranowane złącze zewnętrzne Nazwa sygnału Pin Pin Nazwa sygnału Masa l 35 -DB(12) Masa 2 36 -DB(13) Masa 3 37 -DB(14)
Tabela 15.11. cd. Z!ąc:e wewnętrzne lub ekranowane złącze zewnętrzne kabla P jednokońcówkowego Nazwa sygnału Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa TERMPWR TERMPWR Zarezerwowany Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa Masa
Pin 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34
Pin 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68
Nazwa sygnału -DB(15) -DB(parytetl) -DB(0) -DB(1) -DB(2) -DB(3) -DB(4) -DB(5) -DB(6) -DB(7) -DB(parytet 0) Masa Masa TERMPWR TERMPWR Zarezerwowany Masa -ATN Masa -BSY -ACK -RST -MSG -SEL -C/D -REQ -I/O -DB(8) -DB(9) -DB(10) -DB(ll)
Kabel Q jednokońcówkowy i jego złącze stosowane są jedynie w 32-bitowych instalacjach SCSI, które wymagają również kabla P (jego układ pinów znajdziesz w tabeli 15.12). 32-bitowe instalacje SCSI wciąż spotykane są jeszcze w ilościach „śladowych".
Tabela 15.12. Złącze wewnętrzne lub ekranowane złącze zewnętrzne kabla Ojednokońcówkowego Nazwa sygnału Pin Pin Nazwa sygnału Masa l 35 -DB(28) Masa 2 36 -DB(29) Masa 3 37 -DB(30) Masa 4 38 -DB(31) Masa 5 39 -DB(parytet 3) Masa 6 40 -DB(16) Masa 7 41 -DB(17) Masa 8 42 -DB(18) Masa 9 43 -DB(19) Masa 10 44 -DB(20) Masa 11 45 -DB(21) Masa 12 46 -DB(22) Masa 13 47 -DB(23) Masa 14 48 -DB(parytet 2) Masa 1S 49 Masa Masa 16 50 Masa TERMPWRQ 17 S1 TERMPWRQ TERMPWRQ 18 S2 TERMPWRQ Zarezerwowany 19 53 Zarezerwowany Masa 20 S4 Masa Masa 21 55 Terminowany Masa 22 S6 Masa Masa 23 57 Terminowany Masa 24 58 -ACKQ Masa 25 59 Terminowany Masa 26 60 Terminowany Masa 27 61 Terminowany Masa 28 62 Terminowany Masa 29 63 -REQQ Masa 30 64 terminowany Masa 31 65 -DB(24) Masa 32 66 -DB(25) Masa 33 67 -DB(26) Masa 34 68 -DB(27)
Różnicowe sygnały SCSI Różnicowe SCSI nie jest zwykle używane w środowisku komputerów osobistych, choć bardzo chętnie stosowane jest w minikomputerach ze względu na znaczne długości magistrali, jakie dopuszcza ta konstrukcja. Mimo że złącze to nie jest zbyt popularne w mikrokomputerach, jego układ przedstawiam poniżej dla celów porównawczych. Złącze kabla A (różnicowe) jest dostępne w dwóch wersjach: jako wewnętrzne złącze nieekranowane oraz w formie zewnętrznego złącza ekranowanego. Tabela 15.13 przedstawia układ pinów kabla wewnętrznego, podczas gdy tabela 15.14 ukazuje ich układ w złączu kabla zewnętrznego. Tabela 15.13. Nieekranowane złącze wewnętrzne kabla A (różnicowe) Nazwa sygnału RESET Masa +DB(0) +DB(1) +DB(2) +DB(3) +DB(4) +DB(5) +DB(6) +DB(7) +DB(parytet) D1FFSENS Zarezerwowa ny TERMPWR Zarezerwowa ny +ATN Masa +BSY +ACK. +RST +MSG +SEL +C/D +REQ +1/0 masa
Pin l l 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Pin 2 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
Nazwa sygnału -dysk zainstalowany Masa -DB(0) -DB(1) -DB(2) -DB(3) -DB(4) -DB(5) -DB(6) -DB(7) -DP(parytet) Masa Zarezerwowany TERMPWR Zarezerwowany -ATN Masa -BSY -ACK. -RST -MSG -SEL -C/D -REQ -I/O masa
Tabela 15.14. Ekranowane złącze zewnętrzne kabla A (różnicowe) Nazwa sygnału Pin Pin Nazwa sygnału Masa l 26 Masa +DB(0) 2 27 -DB(0) +DB(1) 3 28 -DB(1) +DB(2) 4 29 -DB(2) +DB(3) 5 30 -DB(3) +DB(4) 6 31 -DB(4) +DB(5) 7 32 -DB(5) +DB(6) 8 33 -DB(6) +DB(7) 9 34 -DB(7) +DB(parytet) 10 35 -DP(parytet) DIFFSENS 11 36 Masa Zarezerwowany 12 37 Zarezerwowany TERMPWR 13 38 TERMPWR Zarezerwowany 14 39 Zarezerwowany +ATN 15 40 –ATN Masa 16 41 Masa +BSY 17 42 –BSY +ACK 18 43 –ACK +RST 18 44 –RST +MSG 20 45 –MSG +SEL 21 46 –SEL +C/D 22 47 -C/D +REQ 23 48 –REQ +1/0 24 49 -I/0 Masa 25 50 Masa Kabel P (różnicowy) i odpowiednie złącze używane są w 16-bitowych instalacjach Wide SCSI. Tabela 15.15 przedstawia układ pinów dla kabla P (różnicowego). Nazwa sygnału Pin Pin Nazwa sygnału +DB(12) l 35 -DB(12) +DB(13) 2 36 -DB(13) +DB(14) 3 37 -DB(14) +DB(15) 4 38 –DB(15)
Tabela 15.15. cd. Złącze -wewnętrzne lub ekranowane złącze zewnętrzne kabla P (różnicowe) Nazwa sygnału Pin Pin Nazwa sygnału +DB(parytetl) 5 39 -DB(parytetl) Masa 6 40 Masa +DB(0) 7 41 -DB(0) +DB(1) 8 42 -DB(1) +DB(2) 9 43 -DB(2) +DB(3) 10 44 -DP(3) +DB(4) 11 45 -DB(4) +DB(5) 12 46 -DB(5) +DB(6) 13 47 -DB(6) +DB(7) 14 48 -DB(7) +DB(parytetO) 15 49 -DB(parytetO) D1FFSENS 16 50 Masa TERMPWR 17 S1 TERMPWR TERMPWR 18 52 TERMPWR 19 53 Zarezerwowany Zarezerwowany +ATN 20 S4 -ATN Masa 21 55 Masa +BSY 22 56 -BSY +ACK. 23 57 -ACK +RST 24 S8 -RST +MSG 25 59 -MSG +SEL 26 60 -SEL +C/D 27 61 -C/D +REQ 28 62 -REO +1/0 29 63 -1/0 Masa 30 64 Masa +DB(8) 31 65 -DB(8) +DB(9) 32 66 -DB(9) +DB(10) 33 67 -DB(10) +DB(11) 34 68 -DB(ll) Kabel Q (różnicowy) oraz jego złącze używane są z wdrażanymi dopiero 32bitowymi instalacjami Wide SCSI. W tym przypadku wymagany byłby również 16-bitowy, szeroki (wide) kabel P. Układ pinów kabla Q (różnicowego) przedstawiony jest w tabeli 15.16.
Tabela 15.16. Wewnętrzne lub ekranowane złącze zewnętrzne kabla Q (różnicowe) Nazwa sygnału Pin Pin Nazwa sygnału RESET l 2 -dysk zainstalowany +DB(28) l 35 -DB(28) +DB(29) 2 36 -DB(29) +DB(30) 3 37 -DB(30) +DB(31) 4 38 -DB(31) +DB(parytet 3) 5 39 -DB(parytet 3) Masa 6 40 Masa +DB(16) 7 41 -DB(16) +DB(17) 8 42 -DB(17) +DB(18) 9 43 -DB(18) +DB(19) 10 44 -DP(19) +DB(20) 11 45 -DB(20) +DB(21) 12 46 -DB(21) +DB(22) 13 47 -DB(22) +DB(23) 14 48 -DB(23) +DB(parytet 2) 15 49 -DB(parytet 2) DIFFSENS 16 50 masa TERMPWRQ 17 51 TERMPWRQ TERMPWRQ 18 52 TERMPWRQ Zarezerwowany 19 53 Zarezerwowany Terminowany 20 54 Terminowany Masa 21 55 Masa Terminowany 22 56 Terminowany +ACKQ 23 57 -ACKQ Terminowany 24 58 Terminowany Terminowany 25 59 Terminowany Terminowany 26 60 Terminowany Terminowany 27 61 Terminowany +REQQ 28 62 -REQQ Terminowany 29 63 Terminowany Masa 30 64 Masa +DB(24) 31 65 -DB(24) +DB(25) 32 66 -DB(25) +DB(26) 33 67 -DB(26) +DB(27) 34 68 -DB(27)
Terminacja Końce wszystkich magistral muszą być elektrycznie terminowane; magistrala SCS1 nie stanowi tu żadnego wyjątku. Niewłaściwa terminacja nadal jest jednym z najczęstszych problemów związanych z instalacjami SCS1. Dla magistrali SCSI dostępne są trzy typy standardowych terminatorów: • bierny, • czynny, nazywany też alternatywnym 2 (Alternative 2), • terminatory FPT (przymusowej terminacji perfekcyjnej; ang. Forced Perfect
Termination): FPT-3, FPT-18 oraz FPT-27. Typowe terminatory bierne (sieć oporników) dopuszczają wahania sygnału w odniesieniu do mocy sygnału terminatora znajdującego się na magistrali. Zwykle, bierne oporniki terminujące wystarczają do terminowania magistrali o niewielkich długościach, rzędu 0,5 do l metra. Do terminowania dłuższych magistrali lepiej więc zastosować terminację aktywną. Aktywnej terminacji wymaga Fast SCSI. Terminator aktywny składa się nie z oporników obniżających napięcie, lecz z regulatorów napięcia, dzięki którym uzyskiwane jest napięcie terminujące. Taki sposób organizacji terninacji sprawia, że sygnały SCSI zawsze terminowano są do odpowiedniego poziomu napięcia. Terminatory aktywne zwykle posiadają coś w rodzaju świecącej diody, informującej o zachodzeniu terminacji. Specyfikacja SCSI-2 zaleca aktywną terminację na obydwu końcach magistrali, a także wymaga jej zastosowania w przypadku korzystania z urządzeń Fast SCSI lub Wide SCSI. Większość spośród najbardziej zaawansowanych host-adapterów posiada właściwość autoterminacji. Jeśli taki host-adapter znajduje się na końcu łańcucha urządzeń, to pełni także rolę terminatora. Odmianą aktywnej terminacji jest FPT (Forced Perfect Termination), które jest jej udoskonaloną formą. W metodzie tej stosuje się diodę ciamps (stabilizatory diodowe, diody poziomujące), eliminujące sygnały o zbyt wysokim lub zbyt niskim poziomie. Sztuczka polega na tym, że zamiast stabilizowania sygnału na poziomach +5 V oraz masy, terminatory FPT stabilizują sygnał wyjściowy na dwóch regulowanych poziomach napięć. Takie rozwiązanie pozwala diodom poziomującym eliminować sygnały o zbyt wysokim lub zbyt niskim poziomie, zwłaszcza podczas transmisji przeprowadzanych z dużymi prędkościami i na duże odległości. Terminatory FPT są dostępne w kilku wersjach. Wersje FPT-3 i FPT-18 pracują w 8-bitowym standardzie SCSI, natomiast FPT-27 - w 16-bitowym (Wide) SCSI. FPT-3 wymusza dopasowanie trzech najbardziej aktywnych sygnałów 8-bitowej magistrali SCSI, podczas gdy FPT-18 - wszystkich sygnałów, z wyjątkiem masy. Także FPT-27 wymusza dopasowanie wszystkich sygnałów z wyjątkiem masy, ale na magistrali 16-bitowej. Do grona kilku firm produkujących wysokiej jakości terminatory dla magistrali SCSI należą m.in. Aeronics i Data Matę (oddział firmy Metho-de). Obie firmy wytwarzają szeroką gamę terminatorów, ale Aeronics słynie z kilku znakomitych wersji terminatorów FPT, specjalnie przystosowanych do trudnych konfiguracji, wymagających długich przewodów lub wysokiej integralności sygnału. Jeśli chodzi o instalacje SCSI, jedną z najlepszych inwestycji, jakie możesz poczynić, stanowi zakup wysokiej jakości kabli i terminatorów.
Konfigurowanie napędu SCSI Napędy SCSI nie są zbyt trudne do skonfigurowania, zwłaszcza w porównaniu z napędami IDĘ. Standard SCSI reguluje sposób, w jaki napędy te muszą być konfigurowane. Podczas konfiguracji napędu SCSI należy ustawić:
• identyfikator SCSI ID (0-7), • rezystory terminujące. Ustawianie SCSI ID jest bardzo proste. Pojedyncza magistrala SCSI pozwala na podłączenie do ośmiu urządzeń SCSI, z których każde musi mieć unikatowy adres SCSI ID. Host-adapter wykorzystuje jeden adres, więc pozostają adresy dla maksymalnie siedmiu urządzeń peryferyjnych. Większość host-adapterów SCSI jest fabrycznie przypisana do ID 7, który jest adresem o najwyższym priorytecie. Wszystkie inne urządzenia muszą posiadać unikatowy adres ID, który nie wchodzi w konflikt z innymi adresami. Niektóre host-adaptery uruchamiają system tylko z dysku twardego ustawionego na określony adres ID. Na przykład w moim systemie, host-adapter IBM SCSI wymaga, aby dysk startowy był przypisany do adresu ID 6. Nowsze host-adaptery i systemy IBM pozwalają na uruchamianie komputera z dysku ustawionego na dowolny SCSI ID. Starsze host-adaptery Adapteca wymagają, aby identyfikatorem dysku startowego było ID 0; nowsze dopuszczają w tym względzie dowolność. Ustawianie adresu ID wymaga zwykle zmiany ustawienia zworek w napędzie. Jeśli napęd jest zainstalowany w zewnętrznej obudowie, z tyłu tej obudowy może być umieszczony przełącznik wyboru adresu ID. Przełącznik ten upraszcza wybór adresu. Dokonuje się tego przez naciśnięcie przycisku lub przekręcenie tarczy, dopóki nie pojawi się żądany numer ID. Jeśli zewnętrzny przełącznik nie jest dostępny, należy otworzyć obudowę urządzenia i ustawić ID za pomocą zworek. Do wykonania tej czynności niezbędne są trzy zworki, stanowiące binarną reprezentację numeru ID. Na przykład, gdy wszystkie zworki są otwarte (off), przedstawiają binarną liczbę OOOb, która przekłada się na adres ID 0. Binarne ustawienie OOlb jest równoważne ID l, OlOb - ID 2, 01 łb - ID 3, itd. (Litera „b" oznacza liczbę binarną). Niestety, zworki w napędzie mogą występować w różnym porządku, w zależności od ustaleń producenta. Dla ułatwienia, w poniższych tabelach przedstawiam różne możliwe ustawienia zworek ID. Tabela 15.17 pokazuje ustawienia dla napędów, w których zworki są uporządkowane w taki sposób, że najbardziej znaczący bit (MSB) jest po lewej stronie; tabela 15.18 natomiast prezentuje ustawienia dla napędów z najbardziej znaczącym bitem po prawej stronie.
Tabela 15.17. Ustawienia zworek SCSI ID z najbardziej znaczącym bitem po lewej
ID
Ustawienia zworek
O
00 0
1
00 l
2
01 0
3
01 l
4
10 0
5
10 1
6
11 0
7
11 1
/ = zworka zamknięta (on), O = zworka otwarta (off) Tabela 15.18. Ustawienia zworek SCSI /D z najbardziej znaczącym bitem po prawej
ID
Ustawienia zworek
0
00 0
1
100
2
01 0
3
11 0
4
00 1
5
10 1
6
01 1
7
11 1
/ = zworka zamknięta (on), O = z\vorka otwarta (off) Terminację SCSI można przeprowadzić w bardzo prosty sposób. Wymagane jest jej bezwarunkowe stosowanie na obydwu końcach magistrali. Jeśli na jednym z końców magistrali znajduje się host-adapter, musi mieć włączoną opcję terminacji. Jeśli host-adapterjest podłączony pośrodku magistrali i gdy na obu jej końcach znajdują się urządzenia, opcja terminacji w host-adapterze musi być wyłączona, natomiast urządzenia na obydwu końcach magistrali muszą mieć terminację włączoną. Dostępnych jest kilka rodzajów terminatorów, różniących się od siebie jakością i wyglądem. Zaleca się stosowanie co najmniej terminatorów aktywnych, zaś terminatory FPT (Forced Perfect Terminators) uważane są za najlepsze spośród obecnie dostępnych. Więcej informacji o różnych rodzajach terminatorów znajdziesz w poprzednim punkcie. Zasady są proste: używaj możliwie jak najlepszych terminatorów i upewnij się, że ter-minowane są tylko zakończenia magistrali SCSI. Większość problemów z instalacją urządzeń SCSI ma związek z nieprawidłową terminacją. Niektóre urządzenia mają wbudowane rezystory terminujące, które można uaktywnić lub wyłączyć przy użyciu zworek, albo po prostu fizycznie je usunąć. Inne urządzenia nie mają wbudowanych terminatorów i korzystaj ą z zewnętrznych modułów terminujących.
Rysunek 15.5. Terminator urządzenia zewnętrznego SCSI
Zewnętrzne urządzenia SCSI zwykle mają obudowę z zarówno wejściowymi, jak i wyjściowymi złączami SCSI, więc mogą być łączone kaskadowo (daisy chain). Gdy urządzenie znajduje się na końcu magistrali SCSI, zewnętrzny moduł terminatora podłącza się z reguły do drugiego (wyjściowego) portu SCSI (zob. rys. 15.5). Zewnętrzne moduły terminatorów są dostępne w różnych wariantach połączeniowych, także jako przejściówki, potrzebne, gdy dostępny jest tylko jeden port. Terminatory przejściowe są również powszechnie stosowane w instalacjach wewnętrznych, jeśli urządzenie nie ma wbudowanego rezystora terminującego. Wiele dysków twardych używa tych terminatorów przy instalacjach wewnętrznych, by zaoszczędzić miejsce na płytce logicznej (zob. rys. 15.6).
Rysunek 15.6. Wewnętrzne złącze typu pin-header przejściowego terminatora SCSI
Modele przejściowe są niezbędne, jeśli urządzenie jest podłączone na końcu magistrali i jest dostępne tylko jedno złącze SCSI. Pamiętaj, że stosując wysokiej jakości terminatory aktywne lub FPT na obydwu końcach magistrali, unikniesz najczęstszych problemów związanych z jej konfigurowaniem. Również inne parametry konfiguracyjne napędów SCSI można ustawiać za pomocą zworek. Poniżej wymieniam kilka z najczęściej używanych dodatkowych ustawień: • Start na komendę (opóźniony start) • Kontrola parzystości SCSI • Zasilanie terminatorów • Synchroniczna negocjacja Parametry te są opisane poniżej.
Start na komendę (opóźniony start) Jeśli w systemie masz zainstalowanych kilka napędów, korzystne byłoby takie ich ustawienie, aby nie rozpoczynały jednocześnie pracy w momencie włączenia systemu. Dysk twardy może zużyć w ciągu pierwszych kilku sekund po uruchomieniu trzy do czterech razy więcej mocy niż podczas normalnego działania. Silnik potrzebuje dodatkowej mocy, aby rozpędzić talerze dysku do odpowiedniej prędkości obrotowej. Jeśli kilka napędów pobiera tę moc jednocześnie, może nastąpić przeciążenie zasilacza, powodujące zawieszenie systemu lub problemy z przerywanym rozpoczynaniem pracy komputera. Prawie wszystkie napędy SCSI mają możliwość opóźniania startu. Większość host-adapterów SCSI podczas inicjowania magistrali wysyła rozkaz start unit kolejno do każdego adresu ID. Poprzez ustawienie zworki w twardym dysku, możesz spowodować, że dysk rozpocznie pracę dopiero po otrzymaniu polecenia start unit. Ponieważ host-adapter wysyła to polecenie kolejno do wszystkich adresów ID, poczynając od adresu o najwyższym priorytecie (ID 7), a kończąc na najniższym (ID 0), napęd o najwyższym priorytecie będzie startował jako pierwszy, a po nim kolejno dyski o niższych priorytetach. Ponieważ niektóre hostadaptery nie wysyłają polecenia start unit, niektóre dyski mogą opóźniać start o ustaloną liczbę sekund, zamiast czekać na nadejście tego polecenia. Jeśli używasz napędów zewnętrznych z oddzielnymi zasilaczami, nie musisz korzystać z funkcji opóźnionego startu. Jest ona przydatna przede wszystkim dla napędów wewnętrznych, korzystających z tego samego zasilacza, co reszta systemu. W przypadku napędów wewnętrznych zalecam ustawianie opóźnionego startu nawet, jeśli masz tylko jeden napęd SCSI; takie ustawienie odciąży zasilacz, gdyż dysk zacznie pracować dopiero wtedy, gdy reszta systemu uzyska już pełną moc. Jest to metoda szczególnie zalecana w przypadku komputerów przenośnych i innych systemów, w których źródło zasilania jest ograniczone.
Kontrola parzystości SCSI Jest to forma sprawdzania poprawności, która pomaga się upewnić, że transfer danych przebiega prawidłowo. Niemal wszystkie host-adaptery umożliwiają kontrolę parzystości SCSI, więc opcja ta powinna być ustawiana we wszystkich urządzeniach. Jedynym powodem, dla którego jest to opcja, a nie ustawienie stałe, jest fakt, że niektóre starsze host-adaptery SCSI nie umożliwiają kontroli parzystości, więc przy współpracy z nimi musi ona być wyłączona.
Zasilanie terminatorów Terminatory na końcach magistrali SCSI pobierają moc przynajmniej od jednego z dołączonych do niej urządzeń. Przeważnie są zasilane z host-adaptera, ale nie zawsze. Na przykład host-adaptery równoległego portu SCSI nie zasilają terminatorów. Zasilanie terminatorów z kilku urządzeń nie stanowi problemu, gdyż każde źródło posiada zabezpieczenie diodowe. Ze względu na prostotę, często konfiguruje się wszystkie urządzenia jako mogące zasilać terminatory. Jeśli żadne urządzenie nie zasila terminatorów, magistrala nie będzie odpowiednio dopasowana i nie będzie działać prawidłowo.
Synchroniczna negocjacja SCSI Magistrala SCSI może pracować w dwóch trybach: asynchronicznym (przyjmowanym domyślnie) i synchronicznym. W praktyce magistrala przełącza tryby podczas transferów, korzystając z protokołu zwanego synchroniczną negocjacją. Zanim dane zostaną przesłane magistralą SCSI, urządzenie wysyłające (zwane inicjatorem) i odbierające (zwane celem) negocjują sposób przeprowadzenia transferu. Jeśli obydwa urządzenia umożliwiają transfery synchroniczne, poinformują się o tym nawzajem podczas negocjacji i transfer zostanie dokonany w trybie synchronicznym, co przyśpieszy jego przebieg. Niestety, niektóre ze starszych urządzeń nie umożliwiają transferu synchronicznego i po otrzymaniu żądania takiego transferu odmawiają pracy. Dlatego zarówno host-adaptery, jak i urządzenia pozwalające na synchroniczną negocjację posiadają zworki, za pomocą których można tę opcję wyłączyć, aby umożliwić współpracę ze starszymi urządzeniami. Jednak wszystkie z obecnie produkowanych urządzeń synchroniczną umożliwiają negocjację, więc funkcja ta powinna być włączona.
Pług and Play (PnP) dla SCSI Pług and Play dla SCSI zostało wprowadzone w kwietniu 1994 r. Specyfikacja ta pozwala producentom urządzeń SCSI wytwarzać urządzenia peryferyjne, które będą automatycznie konfigurowane przez system operacyjny obsługujący PnP. Pozwoli to na łatwe dołączenie lub ponowne skonfigurowanie takich urządzeń, jak napędy dysków twardych, streamery i CD-ROM-y. Do przyłączenia urządzenia peryferyjnego SCSI niezbędny jest host-adapter PnP SCSI, taki jak PnP ISA lub PCI. Dołączalne karty PnP pozwalają systemowi operacyjnemu automatycznie konfigurować sterowniki programowe urządzeń oraz zasoby systemu dla interfejsu magistrali hosta.
Specyfikacja SCS1 PnP w wersji 1.0 opisuje następujące szczegóły techniczne: • Pojedyncza konfiguracja kabel-wtyk • Automatyczna terminacja magistrali SCSI • SCAM (SCSI Configured AutoMatically) - automatyczne przypisywanie adresów ID • Pełna kompatybilność wsteczna urządzeń PnP SCSI z zainstalowaną bazą systemów SCSI. Powinna ona znacznie ułatwić korzystanie z urządzeń SCSI. Każde urządzenie SCSI, które dołączasz do magistrali SCSI (z wyjątkiem dysku twardego), wymaga zewnętrznego sterownika. Dyski twarde stanowią tu wyjątek; sterowniki dla nich są częścią BIOS-u host-adaptera SCSI. Te zewnętrzne sterowniki są specyficzne nie tylko dla poszczególnych urządzeń, ale także dla host-adapterów. Ostatnio popularność zyskały dwa standardy sterowników interfejsu hostadapterów, co znacznie zmniejszyło powyższy problem. Znając standard, według którego pisane są sterowniki host-adapterów, producenci urządzeń peryferyjnych mogą teraz szybciej pisać nowe sterowniki obsługujące ich urządzenia, a następnie komunikujące się z uniwersalnym sterownikiem host-adaptera. Taki sposób organizacji komunikacji zwalnia z konieczności dopasowywania sterowników do różnych typów host-adapterów. Dopiero bowiem uniwersalne sterowniki łączą host-adapter z systemem operacyjnym. Obecnie najpopularniejszym uniwersalnym sterownikiem jest ASPI (Advanced SCSI Programming Interface) i większość producentów urządzeń peryferyjnych pisze sterowniki mogące się komunikować z tym właśnie sterownikiem uniwersalnym. Pierwotnie litera A w skrócie ASPI oznaczała Adaptec (firmę, która ten sterownik stworzyła), ale inni dostawcy urządzeń SCSI wykupili sobie prawo do używania ASPI w swoich produktach. System operacyjny DOS nie obsługuje ASPI bezpośrednio, ale po zainstalowaniu sterownika ASPI - owszem. Systemy Windows 95, Windows NT oraz OS/2 2.1 i ich późniejsze wersje zapewniają automatyczną obsługę ASPI dla rozmaitych host-adapterów SCSI. Firmy Future Domain i NCR stworzyły inny sterownik interfejsu, nazwany CAM (Common Access Method). CAM jest przyjętym przez ANSI protokołem, pozwalającym pojedynczemu sterownikowi kontrolować różne host-adaptery. OS/2 2.1 oraz późniejsze wersje tego systemu obsługują CAM. Future Domain wśród narzędzi oferowanych ze swoimi host-adapterami dostarcza również konwerter CAM na ASPI.
Wskazówki konfiguracyjne dla SCSI Kiedy instalujesz łańcuch urządzeń na pojedynczej magistrali SCSI, instalacja bardzo szybko staje się skomplikowana. Poniżej przedstawiono kilka rad, pozwalających na szybkie i wydajne skonfigurowanie systemu: • Zacznij od dodawania pojedynczych urządzeń. Na początku zainstaluj hostadapter i pojedynczy dysk twardy, zamiast podłączać od razu kilka urządzeń i potem próbować jednocześnie je konfigurować. Następnie przyłączaj kolejne, pojedyncze urządzenia, sprawdzając działanie całości przed każdą kolejną instalacją.
• Prowadź dokładną dokumentacja. Kiedy dodajesz urządzenie SCSI, zapisz jego adres ID oraz ustawienia innych przełączników i zworek, takich jak kontrola parzystości, zasilanie terminatorów, opóźniony i/lub zdalny start. Jeśli chodzi o host-adapter, zapisz adresy BIOS-u, przerwania, kanał DMĄ oraz adresy portów we/wy używane przez adapter, a także zworki i ustawienia konfigura-cyjne (np. terminację), które mogą się później przydać. • Stosuj odpowiednią terminację magistrali. Każdy koniec magistrali musi być terminowany, najlepiej przy pomocy terminatorów aktywnych lub FPT. Jeśli którekolwiek z zainstalowanych urządzeń jest urządzeniem Fast SCSI2, musisz używać terminatorów aktywnych, a nie tańszych pasywnych. Nawet dla standardowych (wolniejszych) urządzeń SCSI zalecane są terminatory aktywne. Jeśli do magistrali podłączasz tylko urządzenia zewnętrzne lub wewnętrzne, to host-adapter i ostatnie urządzenie w łańcuchu powinny być terminowane. Jeśli łańcuch tworzą urządzenia zarówno zewnętrzne, jak i wewnętrzne, generalnie terminuje się pierwsze i ostatnie z tych urządzeń, ale nie host-adapter SCSI (który jest pośrodku magistrali). • Używaj wysokiej jakości ekranowanych kabli SCSI. Upewnij się, że złącza kabli, z których korzystasz, pasują do urządzeń. Używaj wysokiej jakości ekranowanych kabli i zwróć uwagę na ograniczenia długości magistrali SCSI. Korzystaj z kabli zaprojektowanych dla SCSI oraz, jeśli to możliwe, używaj kabla tej samej marki w całej magistrali SCSI. Kable różnych marek różnią się impedancją, co może powodować problemy, zwłaszcza przy długich przewodach lub implementacjach SCSI pracujących z dużą prędkością. Stosując się do tych prostych wskazówek, zminimalizujesz problemy związane z instalowaniem SCSI.
IDE kontra SCSI Kiedy porównujesz osiągi i możliwości napędów IDĘ oraz SCSI, powinieneś wziąć pod uwagę kilka czynników. Te dwa rodzaje napędów są najpopularniejszymi spośród obecnie używanych w systemach PC i każdy producent może stworzyć identyczne napędy dla obydwu interfejsów. Wybór najlepszego napędu dla konkretnego systemu jest trudną decyzją, uzależnioną od wielu czynników. W większości przypadków uznasz, że napęd IDĘ przewyższa równoważny napęd SCSI w danym zadaniu lub teście, przy czym zwykle kosztuje mniej, a zatem jest lepszy. Jednakże w niektórych przypadkach napędy SCSI posiadają znaczącą przewagę nad napędami IDĘ, jeśli chodzi o osiągi i oferowane korzyści.
Wydajność Napędy ATA IDĘ są używane w większości komputerów PC obecnie występujących na rynku, ponieważ koszt ich implementacji jest niski, a wydajność wysoka. Porównując dowolne napędy IDĘ oraz SCSI pod względem osiągów, zwróć uwagę na możliwości zastosowanych w nich zespołów głowic (HDA). W celu zminimalizowania liczby czynników występujących w tego typu porównaniach, najlepiej porównywać napędy IDĘ i SCSI pochodzące od tego samego producenta, a więc używające identycznych zespołów HDA. W większości przypadków, producent napędów wytwarza dany napęd w obydwu wersjach, zarówno IDĘ, jak i SCSI. Na przykład Seagate produkuje napędy ST-3600A (ATA-IDE) oraz ST-3600N (Fast SCSI-2) posiadające identyczne moduły HDA i różniące się od siebie tylko układami logicznymi. Wersja IDĘ posiada płytę logiczną z wbudowanym kontrolerem dysku i bezpośrednim interfejsem AT Bus. Wersja SCSI również ma wbudowany kontroler dysku i układy interfejsu magistrali, a także układ scalony SBIC. Kość SBICjest adapterem SCSI, dołączającym napęd do magistrali SCSI. Jak się przekonasz, w istocie właściwie wszystkie napędy SCSI są napędami IDĘ z dodaną kością SBIC. Załóżmy, że oba zespoły głowic przykładowych napędów są w stanie dokonywać transferu danych z prędkością od 2,38 do 4 MB/s. Ponieważ w wersji SCSI sygnały zawsze muszą dodatkowo przechodzić przez magistralę SCSI, w niemal wszystkich przypadkach wersja IDĘ (przyłączona bezpośrednio) działa szybciej.
SCSI vs IDE: przewagi i ograniczenia Napędy IDĘ muszą wykonywać o wiele mniej rozkazów związanych z transferem danego sektora niż napędy SCSI. Oprócz rozkazów napęd-kontroler, które muszą wykonać dyski tak IDĘ, jak i SCSI, transfer SCSI zawiera także dane dotyczące uzgodnień dla magistrali SCSI; wyboru napędu docelowego; żądanie danych; zakończenie transferu przez magistralę; i w końcu konwersję logicznych adresów danych na adresy żądanego cylindra, głowicy i sektora. Taki układ daje IDĘ przewagę w sekwencyjnych transferach pod kontrolą jednozadaniowego systemu operacyjnego. W systemie wielozadaniowym, mogącym wykorzystać dodatkowe możliwości magistrali SCSI, napęd SCSI może mieć lepsze osiągi. Jeśli chodzi o architekturę, to napędy SCSI posiadają znaczną przewagę nad napędami IDĘ. Ponieważ każdy napęd SCSI ma własny, wbudowany kontroler dysku, mogący działać niezależnie od mikroprocesora, komputer może jednocześnie przekazywać rozkazy do wszystkich napędów w systemie. Każdy napęd może przechowywać te rozkazy w kolejce, a następnie wykonywać je równocześnie z innymi napędami w systemie. Dane mogą więc być w całości buforowane przez napęd i przekazywane z wysoką prędkością poprzez dzieloną magistralę SCSI, w czasie odpowiednim do ich przetworzenia. Chociaż napędy IDĘ także posiadają własne kontrolery, nie mogą one działać równocześnie i nie umożliwiają kolejkowania rozkazów. W efekcie, z dwóch kontrolerów w dwunapędo-wej instalacji IDĘ działa w danym momencie tylko jeden, by nie doszło do kolizji.
Choć napędy SCSI wymagają dodatkowo podnoszącej koszt nabycia napędu karty host-adaptera, coraz więcej komputerów osobistych wymaga obsługi streamera, CD-ROM-u czy dysku optycznego, które również wymagają kontrolera SCSI, a zatem tak czy inaczej jest on w tego rodzaju systemach niezbędny. Oznacza to, że koszt zakupu kontrolera można rozłożyć na kolejne urządzenia SCSI, ponieważ kontroler SCSI zakupiony np. wraz z napędem tego typu jest używany przez wiele urządzeń SCSI, takich jak streame-ry czy dyski optyczne. Poza tym wszystkie liczące się obecnie systemy operacyjne umożliwiają programową obsługę szerokiej gamy urządzeń SCSI. Jakie są ograniczenia IDĘ? • IDĘ nie udostępnia dzielonego (nachodzącego na siebie), wielozadaniowego we/wy. • IDĘ nie umożliwia kolejkowania rozkazów. Jak widać, SCSI posiada pewną przewagę nad IDĘ, zwłaszcza gdy jesteśmy zainteresowani rozbudowywaniem systemu, a także w zakresie pracy pod kontrolą wielozadaniowego systemu operacyjnego. Niestety, wiąże się to z większym kosztem implementacji tego interfejsu. Jeszcze jedną zaletą standardu SCSI jest uniwersalność urządzeń zewnętrznych SCSI. Kompatybilność jest zachowana nie tylko pomiędzy poszczególnymi egzemplarzami komputera, ale i pomiędzy różnymi systemami komputerowymi korzystającymi ze złącz SCSI. Prostsza jest także instalacja urządzeń SCSI, gdyż często nie wymaga otwierania obudowy.
Zalecane kontrolery i host-adaptery Wiele firm produkuje kontrolery dysków dla komputerów IBM i kompatybilnych z nimi systemów. Wiele nowszych systemów posiada napędy IDĘ z wbudowanymi kontrolerami, oferujące wysokie osiągi przy niskim koszcie. Inne znów systemy używają napędów SCSI, z powodu elastyczności magistrali SCSI, jeśli chodzi o wspomaganie wielu napędów i urządzeń peryferyjnych. Zalecam stosowanie napędów IDĘ w większości standardowych instalacji, ze względu na prostotę połączeń i niską cenę w stosunku do wydajności. W systemach wysokiej klasy oraz tych, w których najważniejsza jest możliwość rozbudowy i elastyczność, zalecam napędy SCSI.
Zalecane host-adaptery SCSI Zazwyczaj polecam host-adaptery SCSI firmy Adaptec. Adaptery tej firmy działają dobrze i są dostarczane wraz z niezbędnym oprogramowaniem formatującym i eksploatacyjnym. Systemy operacyjne Windows 95, Windows NT oraz OS/2 zapewniają obsługę adapterów SCSI firmy Adaptec. Warto wziąć to pod uwagę, aby uwolnić się od konieczności używania dodatkowych sterowników. Standardowe SCSI lub Fast SCSI są obsługiwane przez magistralę ISA poprawnie, ale jeśli zamierzasz zainstalować magistralę Fast-Wide SCSI, a zwłaszcza magistralę LlItra-Wide, rozważ zastosowanie jakiegoś adaptera SCSI magistrali lokalnej, zwykle PCI. A to dlatego, że magistrala ISA dopuszcza maksymalną prędkość transferu około 8 MB/s, podczas gdy magistrala Fast-Wide SCSI działa z prędkością do 20 MB/s, aUltra-Wide SCSI aż do 40 MB/s! W większości przypadków jako adapter SCSI dla magistrali lokalnej wystarczy adapter w wersji dla magistrali PCI, którą obsługuje większość dzisiejszych systemów PC.
Przykładem popularnego adaptera SCSI dla magistrali PCI jest Adaptec AHA2940AU (zob. rys. 15.7) oraz 2940UW. 2940AUjest adapterem Ultra-SCSI, zaś 2940UW adapterem Ultra-Wide. Adaptery te zasługują na uwagę, ze względu na łatwość ich instalowania i użytkowania. Niemal wszystkie funkcje na karcie mogą być konfigurowane i ustawiane programowo. Koniec z przekopywaniem się przez podręczniki i poszukiwaniem ustawień przerwań, DMĄ, portów we/wy i innych zworek - wszystko jest sterowane programowo, a ustawienia zapisywane w module pamięci flash na karcie. Poniżej przedstawiono niektóre funkcje i właściwości tej karty: • Kompletne narzędzia konfiguracyjne zapisane w pamięci ROM adaptera • Możliwość programowego konfigurowania IRQ, adresów ROM, DMĄ, adresów portów we/wy, parzystości SCSI, SCSI ID i innych ustawień • Terminacja kontrolowana programowo (bez wyciągania rezystorów!) • Rozszerzony (enhanced) BIOS obsługujący do ośmiu napędów 7,88 GB • Nie potrzebuje sterowników dla więcej niż dwóch dysków twardych • Możliwość kolejnego uruchamiania napędów • Możliwość uruchamiania systemu z napędu o dowolnym SCSI ID
Rysunek 15.7. Host-adapter Adaptec AHA-2940AU SCSI
Ostatnio Adaptec wypuścił pełne wersje PnP swoich adapterów SCSI. Adaptery te zostaną automatycznie skonfigurowane na każdym komputerze PC, który obsługuje specyfikację PnP, lub też mogą zostać skonfigurowane ręcznie (przy pomocy dostarczonego oprogramowania) w systemach nie obsługujących PnP. Adaptery SCSI PnP są szczególnie zalecane, ponieważ mogą być konfigurowane bez otwierania komputera! Wszystkie funkcje są ustawiane programowo, nie ma zworek ani przełączników, na które trzeba uważać. Również fakt, że większość producentów urządzeń peryferyjnych najpierw pisze sterowniki dla kart Adapteca, przyczynia się do tego, że stosując te karty nie doświadczysz większych problemów z kompatybilnością ani ze sterownikami.
Ograniczenia sprzętowe i programowe dysków Rozpatrując możliwości różnych interfejsów dyskowych, a także ROM BIOS-ów oraz systemów operacyjnych, można określić ograniczenia pamięci dyskowej. Poniżej zostały wyszczególnione ograniczenia dla różnych interfejsów i systemów operacyjnych.
Ograniczenia pojemności interfejsu dyskowego Różne interfejsy dyskowe w różnym stopniu ograniczają teoretyczną maksymalną pojemność dysku, z którym pracują. Ograniczenia te wynikają z różnic w sposobie, w jaki każdy interfejs działa na poziomie sprzętowym. Zauważyć należy, że nawet jeśli dany interfejs umożliwia dostęp do zasobów pamięci dyskowej o znacznym rozmiarze, BIOS i DOS zwykle nakładają dużo ostrzejsze ograniczenia i to zwykle one decydują o rzeczywistych limitach pojemności dysku.
ST-506/412, ESDI i IDE Aby określić ograniczenia pojemności dla interfejsów ST-506/412, ESDI lub IDĘ, należy najpierw określić limity dotyczące maksymalnej liczby cylindrów, głowic i sektorów na ścieżkę. Aby to zrobić, spójrz na rozmiar przechowujących te dane rejestrów w sterowniku. Wszystkie z wymienionych interfejsów mają taką samą specyfikację rejestrów kontrolera, więc limity pojemności tutaj obliczone mogą być zastosowane w przypadku każdego z nich. Jak przekonasz się za chwilę, limity pojemności interfejsu są dosyć wysokie. Ograniczenia parametrów dysku są następujące: Cylindry (16 bitów) = 65 536 Głowice (4 bity) = 16 Sektory (8 bitów) = 256 To daje maksymalną teoretyczną pojemność dysku: 65 536 cylindrów x 16 głowic x 256 sektorów x 512 bajtów = 137 438 953 472 bajty (czyli 128 GB) Niestety, maksymalna pojemność - 128 GB -jest ograniczana przez BIOS. W zależności od wpływu na dopuszczalną wielkość dysku, wyróżniamy dwa rodzaje BIOS-u. Standardowy BIOS występujący w większości systemów jest ograniczony do 1024 cylindrów, 16 głowic i 63 sektorów na ścieżkę. BIOS w wersji rozszerzonej będzie ograniczony do 1024 cylindrów, 256 głowic i 63 sektorów na ścieżkę. W wyniku połączenia ograniczeń BIOS-u i interfejsu otrzymamy następujące limity maksymalnej pojemności (przyjmując 512-bajtowe sektory): Limit dla standardowego BIOS-u: 1024 cylindry x 16 głowic x 63 sektory = 528 482 304 bajty (540 MB) Limit dla rozszerzonego BIOS-u: 1024 cylindry x 256 głowic x 63 sektory = 8 455 716 864 bajty (7,88 GB)
Jeśli płyta główna nie udostępnia rozszerzonego BIOS-u, można dodać adapter magistrali IDĘ, który ma na karcie rozszerzony BIOS. By obejść takie problemy z BIOS-em, niektóre wersje dysków IDĘ, większe niż 528 milionów bajtów, mają dysk podzielony tak, aby działał jak dwie fizycznie odrębne jednostki. W takim przypadku napęd jest widziany na złączu magistrali IDĘ jako zarówno master, jak i slave i może być używany tylko jako dwa napędy o pojemnościach maksymalnych 504 MB. ATA-2 zdefiniowała tryb ŁBA (Logical Błock Address - logiczne adresowanie bloku) dla EIDE. W tym trybie każdy sektor na dysku jest numerowany od O do x. Ograniczeniem jest 28-bitowy rozmiar liczby x, a więc może ona przyjąć maksymalną wartość 268435456. Jeśli przyjmiemy 512-bajtowe sektory, otrzymujemy maksymalną pojemność dysku 137438953 472 bajty. Przypadkowo jest to wielkość zgodna z wewnętrznym ograniczeniem IDĘ. Adres ŁBA jest tłumaczony przez rozszerzony BIOS ATA-2/EIDE na rozszerzone parametry cylindra, ścieżki i sektora (CHS), które pozwalają na korzystanie z maksimum 1024 cylindrów, 256 głowic i 63 sektorów.
Zgodnie ze specyfikacją SCSI, napędy nie są adresowane poprzez cylindry, głowice i sektory, lecz poprzez adres ŁBA. Jest to numer przypisany wszystkim sektorom na dysku, kolejno od pierwszego do ostatniego. Adres ŁBA jest liczbą 32-bitową, co przy 512-bąjtowych sektorach skutkuje następującym ograniczeniem: 4 294 967 296 adresów ŁBA (sektorów) x 512 bajtów = 2 199 023 255 552 bajty (2048 GB lub 2 TB) Jak widać, limity pojemności napędów SCSI są bardzo wysokie. Jednakże, BIOS musi widzieć napęd SCSI jako określoną liczbę cylindrów, głowic i sektorów na ścieżkę, dlatego BIOS ogranicza pojemność SCSI. Niemal wszystkie adaptery SCSI posiadają rozszerzony BIOS, który umożliwia uzyskanie następującej maksymalnej pojemności dysku (przyjmując 512-bajtowe sektory): SCSI z rozszerzonym BIOS-em: 1024 cylindry x 256 głowic x 63 sektory = 8 455 716 864 bajty (7,88 GB) Jeśli nie masz rozszerzonego BIOS-u na płycie głównej ani w adapterze SCSI, czasem załadowanie zewnętrznego sterownika dla używanego adaptera umożliwia uzyskanie obsługi rozszerzonego BIOS-u. Większość systemów umożliwia stosowanie maksymalnie czterech host-adapterów SCSI, z których każdy może obsługiwać do siedmiu napędów, co w sumie daje 28 fizycznie zainstalowanych napędów.
Ograniczenia pojemności ROM BIOS-u Oprócz limitu pojemności 504 MB, standardowy ROM BIOS może obsługiwać tylko dwa napędy dysków twardych. Rozszerzony BIOS obsługuje maksymalnie 128 napędów. Większość adapterów IDĘ i SCSI omija ograniczenia standardowego BIOS-u (tylko dwa napędy) poprzez umieszczenie na płycie rozszerzonego BIOS-u, który przejmuje kontrolę nad interfejsem dyskowym. Niektóre z nowszych wersji BIOS-u na płycie adaptera umożliwiają także uruchamianie systemu z napędów CD-ROM.
Ograniczenia pojemności systemu operacyjnego IBM i Microsoft oficjalnie twierdzą, że DOS 5 i jego późniejsze wersje obsługują do ośmiu fizycznych dysków twardych. IBM mówi, że OS/2 1.30.1 i wersje późniejsze (także 2.x) obsługują do 24 fizycznych dysków twardych, a ponieważ OS/2 zawiera w sobie DOS, wynika z tego, że DOS pod OS/2 także obsługuje do 24 fizycznych dysków. OS/2 HPFS (High Performance File System) obsługuje także partycje o maksymalnej wielkości 8 GB, a największy dopuszczalny rozmiar pojedynczego pliku wynosi 2 GB, podczas gdy partycje FAT pod DOS i OS/2 mogą mieć maksymalną wielkość 2 GB, tak samo jak pojedynczy plik. Jak widać, ograniczenia BIOS-u ograniczają obecnie maksymalną fizyczną wielkość dysku twardego do około 7,88 GB (czyli około 8,46 miliardów bajtów).
Rozdział 16.
Instalacja dysku twardego W niniejszym rozdziale jest dokładnie opisany proces instalacji dysku twardego. Ze szczególną uwagą zostały omówione konfigurowanie, montaż i formatowanie dysku. Przedstawione są tu również podstawowe procedury niezbędne do zainstalowania dysku twardego w komputerze osobistym (komputerze PC).
Procedury instalacji dysku twardego Zainstalowanie dysku twardego w komputerze PC wymaga wykonania następujących czynności: • skonfigurowania dysku, • skonfigurowania jego kontrolera lub interfejsu, • zamontowania dysku, • skonfigurowania systemu, • przeprowadzenia niskopoziomowego formatowania dysku (w przypadku dysków IDĘ oraz SCS1 nie jest to wymagane), • podziału dysku na partycje, • przeprowadzenia wysokopoziomowego formatowania dysku. Proces konfigurowania dysku został omówiony w rozdziale 15. „Interfejsy dysków twardych". Szczegółowe informacje na temat konfigurowania różnego rodzaju dysków znajdziesz w odpowiednich jego podrozdziałach. Kolejne części niniejszego rozdziału opisują pozostałe procedury instalacji dysku twardego. Są one proste do przeprowadzenia i, właściwie wykonane, prowadzą do udanej instalacji dysku. Ze szczególną uwagą zostały potraktowane kwestie niezawodności oraz integralności danych, tak aby instalacja pozwalała na długotrwałe i bezproblemowe użytkowanie dysku. Do przeprowadzenia procedury instalacyjnej niezbędna jest pewna wiedza na temat dysku twardego, jego kontrolera, systemowego BIOS-u oraz większości urządzeń składających się na system. Tego typu informacje zwykle znajdują się w różnych dołączanych do urządzeń podręcznikach użytkownika. Kupując te urządzenia, upewnij się, że wraz z nimi dostarczony jest też podręcznik (wielu sprzedawców nie dołączy podręcznika, jeśli ich o to nie poprosisz). Do większości urządzeń będących obecnie w sprzedaży załączana jest dokumentacja wystarczająca do przeprowadzenia instalacji. Jeśli jednak jesteś osobą podobną do mnie i wolisz mieć pełną dokumentację techniczną danego urządzenia, konieczne będzie zwrócenie się do producenta i zamówienie podręcznika zawierającego jego dokumentację techniczną. Na przykład, kupując komputer PC razem z dyskiem twardym IDĘ Western Digital, prawdopodobnie otrzymasz jakieś informacje na temat dysku, lecz nie będą one
tak treściwe i wyczerpujące jak dokumentacja techniczna dostarczana przez firmę Western Digital. Aby otrzymać tę dokumentację, musisz skontaktować się z producentem i ją zamówić. To samo dotyczy większości pozostałych elementów komputerów składanych. Moim zdaniem, dokumentacja techniczna producenta (OEM)jest podstawą, gdy chodzi o uzyskanie technicznego wsparcia na najwyższym możliwym poziomie. Niżej podaję adresy stron internetowych kilku największych sprzedawców dysków twardych: http://www.maxtor.com http://www.mi c ropoli s.com http://www.conner.com/toc.shtml http://www.wdc.com/welcome.htmi
Konfigurowanie dysku Przed zamontowaniem dysku twardego w obudowie należy się upewnić, że napęd jest odpowiednio skonfigurowany. W przypadku napędów IDĘ oznacza to odpowiednie ustawienie parametrów Master/Slave - za pomocą zworek na dysku twardym. W przypadku napędów SCSI może to nie być już tak proste. Więcej informacji na ten temat znajdziesz w poprzednim rozdziale - „Interfejsy dysków twardych"
Konfigurowanie kontrolera Starsze systemy wymagały osobnych kontrolerów IDĘ umieszczanych w słotach jako karty rozszerzeń. W tej chwili właściwie wszystkie dyski twarde mają wbudowany układ kontrolera, a układ we/wy jest wbudowany w płytę główną. W takich komputerach Urządzenia te są bardzo pomocne przy określaniu, które z zasobów są wykorzystywane przez system. Więcej informacji na temat sprzętowych i programowych narzędzi diagnostycznych znajduje się w rozdziale 22. „Programowe i sprzętowe narzędzia diagnostyczne". Dodatkowe informacje na temat przerwań i kanałów DMĄ można znaleźć w rozdziale 5. „Gniazda, magistrale i karty rozszerzające".
Adresy pamięci ROM Wiele kontrolerów dysków oraz kontrolerów SCSI wymaga do poprawnego działania, aby na karcie urządzenia był zainstalowany system BIOS. Może on pełnić wiele funkcji, w tym: • formatowanie niskopoziomowe, • ustawianie typu dysku (parametrów dysku), • konfigurowanie kontrolera, • diagnostyka SCSI, • obsługa niestandardowych adresów portów wejścia/wyjścia i przerwań.
Jeśli BIOS płyty głównej obsługuje kontrolery dysku twardego, to BIOS na karcie urządzenia jest nie tylko niepotrzebny, lecz wręcz niepożądany, ponieważ korzysta z obszaru pamięci górnej (UMA, ang. Upper Memory Area), której nigdy za wiele. Na szczęście BIOS na karcie urządzenia zazwyczaj można wyłączyć, o ile oczywiście nie jest potrzebny. W oparciu o BIOS płyty głównej mogą działać jedynie kontrolery zgodne z pewnymi standardami, jak np. kontrolery ST-506/412 i ESDI oraz kontrolery magistrali IDĘ. Standardy te wymagają wykorzystywania zakresu 170-17Fh adresów portów wejścia/ wyjścia oraz przerwania IRQ 14. Kontroler, który korzysta z innych ustawień adresów portów wejścia/wyjścia lub z innego przerwania (co następuje w przypadku zainstalowania drugiego kontrolera w systemie), nie będzie obsługiwany przez BIOS płyty głównej i wymaga BIOS-u na karcie urządzenia. Również kontrolery komputerów typu XT wymagają BIOS-u na karcie urządzenia, ponieważ BIOS płyty głównej komputerów tego typu nie umożliwia obsługi dysków twardych. Kontrolery SCSI zwykle nie emulują interfejsu dysku typu WD1003 i niemal zawsze do obsługi funkcji sterownika dysku wymagają BIOS-u na karcie urządzenia. Tego typu BIOS obsługuje dowolne ustawienia kontrolera; w większości przypadków wiele kontrolerów SCSI może wykorzystywać BIOS kontrolera podstawowego - w takiej sytuacji nie są aktywne BIOS-y na kartach żadnych kontrolerów poza podstawowym (pierwszym).
Jeśli BIOS na karcie urządzenia jest wymagany i zostanie uaktywniony, będzie korzystał z określonej przestrzeni adresowej w pamięci UMA. Pamięć UMA to górne 384 kB pierwszego megabajta pamięci systemu. Pamięć ta jest podzielona na trzy obszary, po dwa sektory wielkości 64 kB każdy, przy czym pierwszy i ostatni z tych obszarów są używane przez, odpowiednio, układy kontrolerów wideo i BIOS płyty głównej. Segmenty COOOh i DOOOh są zarezerwowane dla kontrolerów pamięci ROM, takich jak te znajdujące się w kontrolerach dysków lub kontrolerach SCS1. Upewnij się, że obszary pamięci wykorzystywane w tych segmentach przez określony kontroler nie pokrywają się z obszarami używanymi przez inne kontrolery. Żadne dwa kontrolery nie mogą dzielić tego samego obszaru pamięci. Większość kontrolerów posiada zworki, przełączniki bądź nawet oprogramowanie pozwalające ustawić konfigurację urządzenia i zmienić adresy powodujące konflikt.
Numer przerwania (IRQ) Wszystkie kontrolery dysków i kontrolery SCSI w celu uzyskania dostępu do systemu używają linii przerwania. Wywołują one sprzętowe przerwanie, w celu uzyskania dostępu do systemu na czas potrzebny do transferu danych i sterowania. Oryginalne, ośmiobitowe systemy ISA mają tylko osiem poziomów przerwań, przy czym przerwania IRQ o numerach od 2 do 7 są dostępne dla dowolnego kontrolera. Systemy AT-bus (16-bitowy ISA), EISA oraz MCA mają szesnaście poziomów przerwań, a dla dowolnych kontrolerów dostępne są przerwania IRQ o numerach od 3 do 7, od 9 do 12 oraz 14 i 15. Wśród nich przerwania IRQ od 10 dol2 oraz 14 i 15 są szesnastobitowymi przerwaniami dostępnymi tylko dla szesnaste- i trzydziestodwubitowych kontrolerów. Tabele 16.1 i 16.2 ukazują, które przerwania są zwykle wykorzystywane, a które pozostają dostępne (nie wykorzystane) w systemach ISA, EISA, MCA oraz w systemach 8-bitowych ISA. W tabelach tych przedstawione są również
standardowe zastosowania każdego z wymienionych przerwań, włącznie z określeniem, czy przerwanie to jest dostępne w złączu (słocie) magistrali. Proszę zauważyć, że niektóre przerwania najzwyczajniej nie są dostępne w gniazdach rozszerzeń (słotach); są one zarezerwowane wyłącznie dla określonych funkcji systemowych. Każde przerwanie, oznaczone jako wykorzystywane przez określone urządzenie, jest oczywiście dostępne, jeśli urządzenie to nie zostało zainstalowane. Na przykład, jeśli system nie posiada portu myszy na płycie głównej, przerwanie IRQ 12 będzie dostępne; a jeśli w systemie nie ma drugiego portu szeregowego, dostępne będzie przerwanie IRQ 3. Aby zainstalować nowe urządzenie, należy określić, które z przerwań są aktualnie przez system wykorzystywane, a które są wolne, a następnie skonfigurować karty instalowanych urządzeń tak, aby używały tylko dostępnych (wolnych) przerwań. W przypadku standardowej konfiguracji, kontroler dysku twardego korzysta z przerwania IRQ 14. Każdy dodatkowy kontroler będzie musiał używać innego przerwania. Standardowe przerwanie dla dodatkowego (drugorzędnego) kontrolera to IRQ 15. Jeśli BIOS systemu Tabela 16.1. Domyślne przypisania przerwań w systemach ISA, EISA ora: MCA IRQ Funkcja
Złącze magistrali
0 Zegar systemowy
Nie
l Kontroler klawiatury
Nie
2 Drugi kontroler IRQ 8 Zegar czasu rzeczywistego
Nie Nie
9 Sieć/Dostępne (przeadresowane IRQ
2) Tak (8-bitowe)
10 Dostępne
Tak (16-bitowe)
11 SCSI/Dostępne
Tak(16-bitowe)
12 Port myszy na płycie głównej
Tak (l 6-bitowe)
13 Koprocesor matematyczny
Nie
14 Kontroler dysku twardego
Tak (l 6-bitowe)
15 Dodatkowy napęd IDĘ
Tak (l 6-bitowe)
3 Port szeregowy 2 (COM2:)
Tak (8-bitowe)
4 Port szeregowy l (COMI:)
Tak (8-bitowe)
5 Port karty dźwiękowej/równoległy 2 (LPT2:) Tak (8-bitowe) 6 Kontroler stacji dyskietek
Tak (8-bitowe)
7 Port równoległy l (LPT1:)
Tak (8-bitowe)
Tabela 16.2. Domyślne przypisania przerwań w systemach XT-Bus (8-bitowe ISA) IRQ Funkcja
Złącze magistrali
0 Zegar systemowy
Nie
l Kontroler klawiatury
Nie
2 Sieć/Dostępne
Tak (8-bitowe)
3 Port szeregowy 2 (COM2:)
Tak (8-bitowe)
4 Port szeregowy l (COM l:)
Tak (8-bitowe)
5 Kontroler dysku twardego
Tak (8-bitowe)
6 Kontroler stacji dyskietek
Tak (8-bitowe)
7 Port równoległy l (LPT1:)
Tak (8-bitowe)
na płycie głównej nie obsługuje standardu E1DE, to kontrolery nie korzystające z przerwania IRQ 14 do poprawnego działania potrzebują BlOS-u na karcie
urządzenia. Starsze modele BIOS-u płyty głównej obsługują kontrolery dysku jedynie za pomocą przerwania IRQ 14, podczas gdy BIOS obsługujący standard E1DE wykorzystuje do tego celu zarówno IRQ 14, jak i IRQ 15. Większość nowszych systemów posiada zintegrowaną obsługę E1DE oraz dodatkowy port IDĘ, obsługiwany za pomocą przerwania IRQ 15. Standardowe kontrolery IDĘ są fabrycznie konfigurowane tak, by mogły korzystać z przerwania IRQ 14, co się sprawdza w przypadku, gdy dany kontroler jest jedynym kontrolerem dysku w systemie. Natomiast wiele kontrolerów SCSI, takich jak Adaptec 1540/1542C, jest skonfigurowanych na jedno z innych dostępnych przerwań 16-bitowych, np. IRQ 11. Stare (8-bitowe) kontrolery dysków twardych w komputerach XT zwykle wykorzystują przerwanie IRQ 5.
Kanał DMA DMĄ, czyli Bezpośredni dostęp do pamięci (ang. Direct Memory Access), to technika przesyłania bloków danych bezpośrednio do pamięci systemu, bez pełnego angażowania procesora. Płyta główna posiada układy sterujące DMĄ, które organizują transfery DMĄ i zarządzają nimi. W przypadku oryginalnej 8bitowej magistrali XT, DMĄ była metodą dającą najwyższe prędkości transferu, więc wszystkie kontrolery dysków twardych w komputerach XT korzystały z kanału DMĄ 3 w celu uzyskania transferów o dużej prędkości. W systemach AT-Bus (16-bitowe ISA) większość 16-bitowych kontrolerów dysków oraz kontrolerów SCSI nie wykorzystuje kanałów DMĄ, częściowo dlatego, że osiągi dla transferów z zastosowaniem układów DMĄ w przypadku magistrali AT-Bus okazały się bardzo małe. Większość kontrolerów korzysta zatem z techniki programowanego wejścia/wyjścia (P10, ang. Programmed 1/0), w której bajty danych są przesyłane przez porty wejścia/wyjścia. Transfery PIO są w większości przypadków szybsze niż DMĄ, zwłaszcza jeśli BIOS płyty głównej i samo urządzenie obsługują tryb blokowy PIO, tak jak jest w przypadku nowszych dysków IDĘ. Jeśli kontroler nie wykorzystuje bezpośredniego dostępu do pamięci (DMĄ), można przyjąć, że transfer danych odbywa się metodą PIO i kanał DMĄ nie jest potrzebny. Projektanci niektórych kontrolerów znaleźli sposób na poprawienie słabych osiągów magistrali ISA poprzez zastosowanie modułu rozstrzygającego o dostępie do magistrali, zwanego nadzorcą magistrali (ang. bus-master). Nadzorca magistrali przejmuje kontrolę nad magistralą i jest w stanie zastąpić układy DMĄ na płycie głównej, umożliwiając szybkie transfery DMĄ. Szybkość tych transferów często przekracza osiągi transferów PIO (nawet dla PIO w trybie blokowym), w związku z czym nadzorcę magistrali (bus mastera) można znaleźć w wielu najszybszych kontrolerach. Kontroler typu bus-master wymaga wskazania kanału DMĄ, z którego ma korzystać. W przypadku 8-bitowej magistrali ISA dostępny jest zwykle tylko kanał DMĄ l; jednakże dla 16-bitowej magistrali ISA dostępne są kanały DMĄ O, l, 3 oraz od 5 do 7. Kanały DMĄ 5 do 7 są 16-bitowymi kanałami wykorzystywanymi przez większość kontrolerów typu bus-master. Kontrolery dysków w komputerach XT zawsze używają kanału DMĄ 3, podczas gdy większość 16-bitowych kontrolerów IDĘ komputerów AT w ogóle nie korzysta z DMĄ. Nie dotyczy to nowszych systemów z magistralą PC l. W tabelach 16.3 oraz 16.4 przedstawiono kanały DMĄ, które są zwykle wykorzystywane, i te, które są dostępne (nie wykorzystywane). Ujęto w nich także standardowe zastosowania każdego z przedstawionych kanałów, włącznie z określeniem, czy dany kanał DMĄ jest dostępny w złączu magistrali.
Tabela 16.3. Domyślne przypisania kanałów DMĄ w 16-bitowych systemach ISA
DMĄ
Funkcja
Transfer
Złącze magistrali
0
Dostępny
8-bitowy
Tak (16-bitowe)
1
Dźwięk/dostępny
8-bitowy
Tak (8-bitowe)
2
Kontroler stacji dyskietek
8-bitowy
Tak (8-bitowe)
3
Port równoległy ECP/dostępny 8-bitowy
Tak (8-bitowe)
4
Podstawowy kontroler DMĄ
brak
Nie
5
Dźwięk/dostępny
16-bitowy
Tak (l 6-bitowe)
6
SCSI/dostępny
16-bitowy
Tak (l 6-bitowe)
7
Dostępny
16-bitowy
Tak (l 6-bitowe)
Tabela 16.4. Domyślne przypisania kanałów DMĄ w 8-bitowych systemach ISA DMĄ Funkcja O
Transfer
Złącze magistrali
Dynamiczne odświeżanie pamięci RAM 8-bitowy
1
Dźwięk/Dostępny
2 3
Kontroler stacji dyskietek Kontroler dysku twardego
8-bitowy 8-bitowy 8-bitowy
Tak (l 6-bitowe)
Tak (8-bitowe) Tak (8-bitowe) Tak (8-bitowe)
Proszę zauważyć, że niektóre z kanałów DMĄ nie są dostępne w gniazdach rozszerzeń; są one zarezerwowane wyłącznie dla określonych funkcji systemowych. Każdy kanał DMĄ, oznaczony w tabeli jako wykorzystywany przez system, jest oczywiście dostępny, jeśli korzystający z niego komponent nie został zainstalowany. Na przykład, jeśli w 8-bitowym systemie z magistralą ISA brak kontrolera dysku twardego, kanał DMĄ 3 będzie dostępny. Systemy z magistralami PCI oraz EISA posiadaj ą dodatkowe możliwości DMĄ, pozwalające na szybsze, bezproblemowe transfery w przypadku obsługiwania kart nie posiadających nadzorcy magistrali. Magistrale PCI i EISA zapewniają ponadto sprawniejszą obsługę urządzeń typu bus-master, co pozwala uzyskać jeszcze wyższe osiągi. Aby skonfigurować kontroler, który potrzebuje kanału DMĄ, określ najpierw, które z kanałów DMĄ są aktualnie wykorzystywane przez system, a które wolne. Można tego dokonać za pomocą oprogramowania, ale jeśli sprawdzany system nie jest systemem PCI lub EISA, to techniki wykrywania wykorzystywanych kanałów DMĄ za pomocą oprogramowania są bardzo ograniczone. Większość programów, określanych jako mające możliwość wykrywania kanałów DMĄ używanych przez system, nie podaje niestety, których kanałów dany system faktycznie używa, lecz których kanałów używałby, gdyby był skonfigurowany standardowo. Natomiast w standardowym systemie ISA jedynym pewnym sposobem sprawdzenia, które kanały są używane, jest przejrzenie dokumentacji każdego z kontrolerów bądź skorzystanie ze specjalnego urządzenia sprzętowo monitorującego transfery DMĄ.
Po określeniu, które z kanałów DMĄ są wolne, możesz już ustawić kontroler tak, aby korzystał z któregoś z tych wolnych kanałów. Konflikty DMĄ są zwykle przyczyną nieprawidłowych operacji lub transferów danych, tak więc błąd w konfiguracji szybko wychodzi na jaw. Systemy PCI oraz E1SA mają możliwość automatycznego ustawiania urządzeń tak, aby konflikty DMĄ w ogóle nie powstawały. Zupełne wyeliminowanie możliwości powstawania konfliktów jest jednak możliwe tylko w tych systemach EISA, w których wszystkie zainstalowane kontrolery są 32-bitowymi kontrolerami E1SA. Magistrale PCI zwykle posiadają przynajmniej dwa gniazda ISA, które również trzeba skonfigurować.
Adresy portów wejścia/wyjścia (1/0) Adresy portów wejścia/wyjścia to jakby skrzynki pocztowe, przez które polecenia i dane są przesyłane od i do kontrolera. Adresy te różnią się od adresów pamięci. Port wejścia/wyjścia musi być przypisany wyłącznie określonemu urządzeniu i dwa kontrolery nie mogą współdzielić jednego portu. Każdy kontroler zwykle wykorzystuje grupę kolejnych adresów portów do komunikacji z magistralą. Standardowe adresy portów wejścia/wyjścia używane przez kontrolery dysków to 1FO-lF7h. Są to jedyne adresy obsługiwane przez BIOS płyty głównej, więc jeśli posiadasz kontroler dysku pod innym adresem portu, musi on mieć także BIOS na karcie urządzenia. Oczywiście, jeśli dodajesz do systemu dodatkowy kontroler, musi on korzystać z innych adresów wejścia/wyjścia i musi posiadać własny BIOS. Drugorzędnymi adresami portów wejścia/wyjścia większości kontrolerów są adresy 170-177h, które byłyby używane w przypadku, gdyby w systemie uprzednio został zainstalowany inny kontroler. Oczywiście można wykorzystać każdy z dostępnych (nie używanych) adresów wejścia/wyjścia. Konflikty portów wejścia/wyjścia zdarzają się raczej rzadko, chyba że w systemie zainstalowano wiele kontrolerów dysków. W takim wypadku każdy z kontrolerów musi mieć inne ustawienie adresów portów wejścia/wyjścia, żeby nie powodować konfliktów z pozostałymi kontrolerami. Aby określić, które z portów wejścia/wyjścia są aktualnie wykorzystywane przez system, zazwyczaj należy zajrzeć do dokumentacji załączonej do każdego z urządzeń wchodzących w skład systemu. Za pomocą oprogramowania zwykle można zidentyfikować wszystkie wykorzystywane adresy portów wejścia/wyjścia jedynie w przypadku systemów PCI lub EISA. Zaistnienie konfliktu portów można rozpoznać po tym, że urządzenia wchodzące w konflikt nie działają bądź działają niepoprawnie.
Wielofunkcyjne karty wejścia/wyjścia Wielofunkcyjne karty wejścia/wyjścia stanowią połączenie kontrolerów: stacji dyskietek, dysku twardego, portu szeregowego i równoległego -wszystko w ramach jednej karty rozszerzeń. W przypadku większości nowszych płyt głównych wszystkie wymienione kontrolery wbudowane są bezpośrednio w płytę główną, choć w starszych systemach PCI czy VLB umieszczone są one na wielofunkcyjnych kartach wejścia/wyjścia. Jeśli mamy do czynienia z taką właśnie kartą, to przed zainstalowaniem nowego kontrolera powinniśmy wyłączyć znajdujący się na niej kontroler dysku twardego.
Sposoby montowania dysku Procedura montażu dysku twardego jest prawie taka sama jak procedura instalacji stacji dyskietek. Przed rozpoczęciem montażu warto przygotować sobie odpowiednie dla danego dysku i komputera śruby, obejmy oraz płytę czołową. Niektóre komputery z obudową typu AT lub Baby-AT wymagają, aby plastikowe szyny były przymocowane z obu stron dysku, dzięki czemu może się on „wśliznąć" we właściwe miejsce w systemie (patrz rys. 16.1). Firmy takie jak Compaq, Hewlett-Packard, Packard Beli i inne używają szyn własnego typu. Do zakupionego dysku sprzedawca zwykle dołącza szyny typu „standardowego", warto więc upewnić się zawczasu, czy nie są konieczne specjalne szyny. W systemach typu IBM PC oraz XT szyny nie są potrzebne, ale potrzebna może się okazać obejma służąca do łączenia dysków mających połowę normalnej wysokości. W wielu nowszych obudowach komputerowych wyeliminowano konieczność posiadania szyn przez dostosowanie gniazd rozszerzeń do wymiarów stacji dysków 3,5" lub 5,25", co pozwala przymocować nowy dysk bezpośrednio do obudowy. Zwróć uwagę na długość kabla. Kabel zbyt krótki nie sięgnie do dysku. Możesz wówczas spróbować zmienić położenie dysku (o ile posiadasz odpowiednie gniazda rozszerzeń) lub kupić dłuższy kabel. Różne dyski wymagają różnych płyt czołowych. Upewnij się więc, że stosujesz płytę czołową odpowiednią do danego rodzaju dysku. W niektórych systemach płyta czołowa wcale nie jest potrzebna. Jeśli instalowany w takim komputerze dysk ją posiada, należy ją zdjąć. Natomiast w przypadku instalowania w standardowej wnęce dysku o połowie normalnej wysokości, drugą połowę trzeba zasłonić płytą czołową mającą również połowę wysokości. Prościej jednak dysk o połowie wysokości zamówić z normalną płytą czołową zasłaniającą całą wnękę. Rysunek 16.1. Silnik krokowy
Przód dysku
Szyny montażowe dysku
Upewnij się, że używasz tylko śrub dostarczonych razem z dyskiem. Wiele dysków wymaga bowiem śrub o takim samym gwincie jak inne śruby wykorzystywane w komputerze, ale krótszych, przez co nie wkręcają się one zbyt głęboko i nie uszkadzają dysku.
Konfigurowanie systemu Po zamontowaniu dysku można rozpocząć konfigurowanie systemu. Musisz „poinformować" komputer o istnieniu dysku twardego, z którego po włączeniu komputera może być uruchomiony system operacyjny. Sposób określania i przechowywania tej informacji zależy od rodzaju posiadanego dysku i systemu. Standardowymi procedurami konfigu-racyjnymi są procedury IDĘ, stosowane w przypadku większości dysków twardych, z wyjątkiem dysków SCSI. Procedura konfiguracyjna dysków SCSI zależy od rodzaju używanego kontrolera. Podczas konfiguracji dysków SCSI postępuj więc zgodnie z instrukcjami dołączonymi do tego kontrolera.
Automatyczne określanie typu dysku Jeśli system jest typu AT, a dyski obsługiwane są przez BIOS płyty głównej, musisz posiadać pewne informacje na temat BIOS-u, między innymi jakie typy dysków są zdefiniowane w tablicy dysków twardych. Obecnie wiele wersji BIOS-u pozwala na wybranie typu dysku zdefiniowanego przez użytkownika, można więc samodzielnie określić wartości parametrów odpowiadające posiadanemu dyskowi. W przypadku dysków IDĘ, wszystkie nowe wersje BIOS-u posiadają automatyczne wykrywanie typu dysku, tzn. komunikują się z dyskiem i automatycznie wprowadzają właściwe parametry. Procedura ta eliminuje ewentualne błędy i pomyłki zachodzące przy wyborze parametrów dysku. Jeśli masz do czynienia ze starszym rodzajem płyty głównej, która nie posiada automatycznego wykrywania typu dysku, możesz skorzystać z dostarczonej razem z płytą główną lub BIOS-em dokumentacji technicznej, która zawiera informacje na temat tablicy dysków twardych. W razie braku używanego systemu na liście, potrzebne informacje możesz znaleźć w jego dokumentacji technicznej. Często też program konfiguracyjny BIOS-u pokazuje wszystkie dostępne opcje bezpośrednio na ekranie, umożliwiając w ten sposób interaktywny wybór najlepszego zestawu parametrów i eliminując konieczność poszukiwania odpowiedniej informacji.
Ręczne określanie typu dysku Następną czynnością po zebraniu potrzebnych informacji jest poinformowanie systemu o tym, jakiego typu dysk został zainstalowany, dzięki czemu możliwe będzie (w końcu) uruchomienie systemu z tego dysku. W niniejszym rozdziale został omówiony sposób instalacji przykładowego dysku w systemie typu AT oraz ATX. Wiedza, jaką zdobędziesz po przeczytaniu poniższego tekstu, w połączeniu z zamieszczonymi w poprzednim rozdziale informacjami na temat interfejsów dysku umożliwia zainstalowanie każdego rodzaju dysku w dowolnym systemie.
A zatem, najpierw trzeba przeczytać dokumentację dysku i znaleźć potrzebne informacje. Załóżmy, że w dokumentacji naszego przykładowego dysku podane są następujące parametry: • 918 cylindrów • 15 głowic • 17 lub 26 sektorów na ścieżce (zapis MFM lub RLL) • wstępna kompensacja zapisu nie jest wymagana • siedem uszkodzonych ścieżek (te dane są specyficzne dla każdego egzemplarza dysku): Cylinder 188, głowica 7 Cylinder 601, głowica 13 Cylinder 217, głowica 5
Cylinder 798, głowica 10
Cylinder 218, głowica 5
Cylinder 835, głowica 5
Cylinder 219, głowica 5 Dysk ten można zainstalować ze standardowym kontrolerem IDĘ, lecz wówczas pracowałby on ze stosunkowo niskimi prędkościami, na jakie pozwala ten kontroler. Lepszym rozwiązaniem jest wymiana kontrolera IDĘ na EIDE PIO modę 4. Kontroler ten nie tylko obsługuje do czterech urządzeń IDĘ, włącznie z napędami CD-ROM, ale także zapewnia prędkość transferu na wysokim poziomie 16,6 MB/s. Więcej informacji na temat instalowania i konfigurowania kontrolerów dysków znajduje się w rozdziale 15. „Interfejsy dysków twardych". Przykładowy kontroler wykorzystuje transfery PIO i nie wymaga kanału DMĄ do kontroli dysku twardego. Ponieważ na kontroler ten składa się również kontroler stacji dyskietek, potrzebne są pewne dodatkowe informacje dotyczące tej części karty: • KanałIRQ=6 • Kanał DMĄ =2 • Porty wejścia/wyjścia = 3FO-3F7 Informacje te są niezbędne do sprawdzenia, czy karta jest skonfigurowana w sposób nie powodujący konfliktów z pozostałymi kartami systemu. Inne karty nie mogą bowiem korzystać z tego samego kanału IRQ i DMĄ, obszarów pamięci ROM ani portów wejścia/wyjścia, co karta konfigurowanego kontrolera. Zebrane informacje zachowaj na przyszłość i sprawdzaj, czy nie pojawiły się konflikty po zainstalowaniu kart nowych kontrolerów. Zbierz jeszcze informacje dotyczące częstotliwości impulsów krokowych oraz przepiciu, a będziesz mieć wszystko, co jest potrzebne do zakończenia procesu konfiguracji.
Jeśli znasz już informacje dotyczące dysku twardego i kontrolera, możesz dopasować parametry swojego dysku do jednej z pozycji tablicy dysków zapisanej w pamięci ROM na płycie głównej. Czasem trzeba sięgnąć do tabel zawierających listę parametrów dysków. Są one tym bardziej przydatne, że choć obecnie większość tablic dysków twardych jest zapisanych w CMOS-ie płyty głównej, to w przypadku braku opcji automatycznej konfiguracji (Auto-Configure) tak czy inaczej trzeba wybrać opcję samodzielnego kon-figurowania (User Defined) i podać parametry nowego dysku, zwłaszcza że większość nowych dysków jest znacznie większa niż którykolwiek z zamieszczonych w tablicach typów napędów. Wyznaczenie cylindra parkowania głowicy jest zbędne, ponieważ wszystkie nowe dyski automatycznie parkują i blokują głowice w momencie wyłączenia zasilania, choć w przypadku korzystania z poprawnie napisanego programu do parkowania głowic informacja ta byłaby użyteczna. Informacje w postaci tablic dysków nie są wykorzystywane w przypadku kontrolerów dysków twardych typu IBM ESDI oraz SCSI. Ponieważ kontrolery ESDI i SCSI bezpośrednio komunikują się z dyskiem w celu uzyskania potrzebnych parametrów, tablica umożliwiająca wybór odpowiedniego typu dysku nie jest konieczna. Ze względu na założenie utrzymania kompatybilności z dyskami ST-506/412, znajduje się ona jednak w pamięci ROM BIOS-u większości systemów PS/2, nawet jeśli dany model komputera standardowo obsługuje dyski ESDI lub SCSI. Producenci większości systemów kompatybilnych udoskonalali tablice dysków znajdujące się w pamięci ROM BIOS-u płyty głównej na trzy sposoby: • Typy dodatkowe (Additional types). Pierwszą rzeczą, jaką producenci zrobili, było dodanie do tablic większej liczby typów dysków. Ponieważ w tablicy mieści się 47 lub więcej pozycji, w przypadku wielu kompatybilnych wersji BIOS-u wypełnili oni wszystkie pozycje wartościami parametrów najbardziej popularnych na rynku dysków, co, ogólnie rzecz biorąc, ułatwiało instalację dysków. Jedynie tablice komputerów firmy IBM często podawały tylko kilka standardowych ustawień. • Typy dysków możliwe do zdefiniowania przez użytkownika (User-definable drive types). Następnie większość producentów dodało pozycję „typy możliwe do zdefiniowania przez użytkownika" (User-definable drive types), wykorzystując nie używane obszary pamięci CMOS do składowania całej informacji dotyczącej parametrów dysku. Rozwiązanie to było znakomite ze względu na to, że podczas konfiguracji można było podać parametry odpowiadające dowolnemu dyskowi dostępnemu na rynku. Jedyną wadą tej metody jest to, że w przypadku wyczerpania się baterii CMOS lub uszkodzenia zapisanych wartości parametrów trzeba ponownie wprowadzić dokładnie te same wartości, w celu odzyskania dostępu do dysku. Wiele osób nie zapisywało używanych wartości parametrów i próbując je odgadnąć wprowadzało nieprawidłowe wartości, przysparzając sobie w ten sposób problemów.
• Automatyczne wykrywanie (Automatic detection). Większość nowszych wersji BIOS-u posiada cechę specyficzną dla sterowników IDĘ. Ponieważ większość dysków IDĘ jest „inteligentna" i reaguje na polecenie identify Drive, B10S przekazuje dyskowi to polecenie, a ten odpowiada podając właściwe parametry. Funkcja ta eliminuje potrzebę wpisywania parametrów, ponieważ BIOS akceptuje wartości podane przez dysk. Jak już wcześniej wspomniałem, większość nowszych wersji BIOS-u charakteryzuje się zarówno możliwością definiowania typu dysku przez użytkownika, jak i automatycznym wykrywaniem dysków IDĘ.
Wymiana pamięci ROM Jednym ze sposobów ominięcia ograniczeń tablic dysków jest nabycie i zainstalowanie nowej pamięci ROM BIOS-u. Przykładowo zestaw Phoenix ROM BIOS kosztuje poniżej 200 zł. Nowsze pamięci ROM posiadają opcję definiowania parametrów dysku przez użytkownika, co jest najbardziej eleganckim rozwiązaniem problemu. Nowe zestawy pamięci ROM najczęściej umożliwiają również korzystanie z takich funkcji jak wbudowany program konfigurujący, obsługa napędów 3,5" HD i ED oraz obsługa rozszerzonej klawiatury (Enhanced Keyboard).
Konfigurowanie napędów RLL/ESDI Dyski typu RLL i ESDI zwykle nie występują w wewnętrznych tablicach dysków starszych wersji BIOS-u. W konsekwencji kontrolery tych dysków często posiadają własny BIOS, który zawiera wewnętrzną listę dostępnych interfejsów bądź umożliwia dynamiczne konfigurowanie (określanie) kontrolera zgodnie z określoną geometrią dysku. Jeśli na twojej płycie głównej znajduje się BIOS z typem dysku możliwym do zdefiniowania przez użytkownika (zalecane), wystarczy, że wprowadzisz prawidłowe parametry, a dysk będzie obsługiwany zgodnie z nimi. Pamiętaj, aby ich wartości zapisać sobie w bezpiecznym miejscu, bowiem jeśli komputer je utraci, a Ty nie wprowadzisz ponownie właściwych wartości parametrów, możesz utracić dostęp do dysku. Jeśli korzystasz z typu dysku możliwego do zdefiniowania przez użytkownika, możesz wyłączyć BIOS kontrolera.
Konfigurowanie napędów IDE Inteligentne dyski IDĘ mogą używać geometrii reprezentującej ich faktyczne parametry fizyczne bądź też przystosować się do geometrii innych dysków o tej samej lub mniejszej liczbie sektorów. Do ich skonfigurowania wystarczy więc wybrać z tablicy odpowiedni typ dysku lub zdefiniować typ o pojemności mniejszej lub równej rzeczywistej pojemności posiadanego dysku.
Konfigurowanie napędów SCSI W odniesieniu do niemal wszystkich napędów SCSI, należy z tablicy dysków wybrać pozycję DRIVE TYPE O lub NONE, ponieważ BIOS kontrolera i napęd komunikują się w celu ustalenia geometrii dysku. Procedury niskopoziomowego formatowania tego rodzaju dysków zwykle można przeprowadzać za pomocą kontrolera i przy użyciu programów formatowania, konfigurowania, instalacji. Wszystkie napędy SCS1 są formatowane niskopoziomowo przez producenta.
Formatowanie i instalacja oprogramowania Prawidłowe skonfigurowanie i formatowanie są niezwykle istotnymi czynnikami wpływającymi na osiągi dysku i jego niezawodność. W niniejszym podrozdziale zostały opisane procedury prawidłowego formatowania dysku twardego. Procedury te przeprowadzaj po zainstalowaniu nowego dysku lub zaraz po odzyskaniu danych z dysku, który stwarzał problemy. Na proces formatowania dysku składają się trzy główne etapy: • formatowanie niskiego poziomu, • partycjonowanie, • formatowanie wysokiego poziomu.
Zanim zaczniesz formatowanie niskopoziomowe Podczas formatowania niskopoziomowego (ang. low-level format, LLF), które jest „prawdziwym" formatowaniem, są wyróżniane, a następnie zapisywane ścieżki i sektory dysku. W trakcie formatowania niskopoziomowego dane są zapisywane na całym dysku. Niewłaściwy proces formatowania niskiego poziomu powoduje utratę danych i wiele błędów odczytu/zapisu. Przed rozpoczęciem formatowania niskopoziomowego należy wziąć pod uwagę kilka zagadnień.
Kopie zapasowe danych Formatowanie niskopoziomowe jest standardową procedurą naprawy dysków twardych, które stwarzają problemy. Ponieważ podczas formatowania niskopoziomowego dane są zapisywane na całej powierzchni dysku, wszelkie operacje odzyskiwania danych należy przeprowadzić przed wykonaniem formatowania niskopoziomowego. Po przeprowadzeniu formatowania niskopoziomowego nie można odzyskać żadnej informacji uprzednio zapisanej na dysku. Ponieważ formatowanie niskopoziomowe usuwa z dysku wszystkie dane zastępując je nowymi, stanowi skuteczny sposób wymazania zawartości całego dysku, dający gwarancję, że nikt nie będzie w stanie odzyskać usuniętych z niego danych. Rządowe standardy dla tego typu procedur wymagają, aby dane były zamazywane kilkakrotnie za pomocą różnych metod, ale w przypadku większości zastosowań, jeśli dane zostały raz wymazane, nie można ich odczytać.
Temperatura systemu Informacje dotyczące nagłówków i stopek sektorów są zapisywane lub uaktualniane tylko podczas formatowania niskopoziomowego. Podczas normalnego odczytu/zapisu, w sektorze zapisywane jest jedynie 512 bajtów oraz bajty CRC (Cyclic Redundancy Check, cyklicznej kontroli nadmiarowej) stopki sektora. Zmiany wymiarów talerzy dysku, spowodowane zmianami temperatury, mogą stać się przyczyną powstawania problemów podczas odczytu i zapisu danych. Gdy dysk z talerzami o średnicy 5,25" przechodzi formatowanie niskopoziomowe pięć minut po włączeniu zasilania, talerze mają stosunkowo niską temperaturę, ok. 20°C, a nagłówki i stopki sektorów oraz 512 bajtów przypadkowej informacji zapisywane są w określonych miejscach na każdej ścieżce każdego talerza. Załóżmy, że zapisujesz plik na dysku, który pracuje od kilku godzin, a talerze mają temperaturę 60°C. Uaktualniane są tylko obszary danych mieszczące się w kilku sektorach. Ale talerze mają temperaturę prawie o 40° wyższą niż w momencie formatowania, co oznacza, że każdy z aluminiowych talerzy dysku rozszerzył się o 0,064 milimetra (biorąc pod uwagę współczynnik rozszerzalności cieplnej aluminium). Tak więc każda ścieżka przesunęła się w kierunku krawędzi talerza średnio o około 0,032 milimetra. Gęstość większości dysków o średnicy 5,25" wynosi od 500 do 1000 ścieżek na cal (czyli od 200 do 400 na centymetr), a odległości między sąsiadującymi ścieżkami od 0,025 do 0,05 milimetra. W rezultacie, z powodu rozszerzalności cieplnej talerza typowego dysku 5,25", ścieżki mogą się przemieszczać pod głowicami na odległość od połowy do ponad jednej pełnej szerokości ścieżki. Jeśli mechanizm sterujący głowicami dysku nie kompensuje temperaturowych zmian rozmiarów talerzy dysku, to podczas wyszukiwania ścieżek mogą się zdarzać poważne błędy. Wynikają one z tego, że obszar danych w każdym z sektorów uaktualnianych przy wysokiej temperaturze nie leży w jednej linii z informacją zapisaną w nagłówku i stopce sektora przy niskiej temperaturze talerzy. W przypadku gdy nagłówek i stopka sektora nie mogą zostać poprawnie odczytane, DOS zwykle wyświetla komunikat o błędzie podobny do poniższego: Sector not found reading drive C Abort, Retry, Ignore, Fail? Opisywany efekt termiczny działa również w drugą stronę -jeśli sformatowany zostanie dysk bardzo rozgrzany, błędy odczytu mogą wystąpić, gdy będzie on zimny (z tego samego powodu zmian rozmiarów talerzy). Problem taki zdarza się z dyskami, które mają "szewskie poniedziałki", kiedy to kręcą się, lecz system nie może z nich poprawnie odczytać danych, zwłaszcza gdy komputer był wyłączony przez dłuższy czas (na przykład w czasie weekendu). W takiej sytuacji pozostawienie komputera włączonego na jakiś czas, tak aby dysk się rozgrzał, powinno umożliwić uruchomienie systemu i przywrócić jego normalne działanie.
Jeśli coś takiego się zdarzy, trzeba sporządzić kopię zapasową całego dysku i przeprowadzić nowe formatowanie niskopoziomowe we właściwej temperaturze pracy systemu (procedura ta jest opisana w dalszej części niniejszego rozdziału). Pozwala to na normalną pracę dysku do czasu, gdy błędy wyszukiwania ścieżek spowodowane zmianami temperatury staną się na tyle duże, by znów powodować problemy. Wiedząc, że zmiany temperatury mogą spowodować błędy wyszukiwania ścieżek, zapewne zrozumiesz, skąd się wzięły poniższe, podstawowe reguły użytkowania dysków: • Zanim przeprowadzisz formatowanie niskopoziomowe dysku twardego, włącz system na co najmniej 30 minut. Pozwala to na uzyskanie przez talerze normalnej temperatury pracy i ustabilizowanie się ich rozmiarów. • Jeśli to możliwe, daj systemowi trochę czasu na „rozgrzanie" się, zanim zaczniesz zapisywać dane na twardym dysku. Nie dotyczy to dysków posiadających urządzenie do dokładnego pozycjonowania głowic (czyli dysków z cewką drgającą). • Jeśli posiadasz tani dysk z silnikiem krokowym, który stale wykazuje problemy związane z błędnym odszukiwaniem ścieżek na skutek zmian temperatury, rozważ, czy nie lepiej dysku w ogóle nie wyłączać. Takie postępowanie znacznie przedłuży bezawaryjny okres pracy dysku, ponieważ temperatura i rozmiary talerzy dysku będą wtedy w miarę stałe. Tego typu problemy związane ze zmianami temperatury stanowią większy problem w przypadku dysków z nastawnikami silnika krokowego pracującymi w układzie otwartym (które nie kompensują zmian temperatury) niż w przypadku dysków z nastawnikami cewki drgającej, które pracują w układzie zamkniętym i uwzględniają przesunięcia ścieżek wywołane zmianami temperatury, w pełni je rekompensując, dzięki czemu błędy nie pojawiają się nawet w przypadku dużych zmian rozmiarów talerzy dysku). Nowoczesne dyski z układem dokładnego pozycjonowania głowic (tj. z nastawnikami cewki drgającej) nie wykazują niestabilności związanej z termicznym rozszerzaniem się i kurczeniem talerzy, ponieważ posiadają automatyczny mechanizm pozycjonowania ścieżek. W miarę jak ścieżka się przemieszcza, mechanizm pozycjonujący automatycznie kompensuje zmiany. Wiele z tych dysków poddawanych jest zauważalnemu procesowi kompensowania temperaturowych zmian rozmiaru talerzy mniej więcej co pięć minut przez pierwsze 30 minut po uruchomieniu, a następnie raz na pół godziny. Gdy dysk wykonuje procedury termicznej kompensacji, słychać jak głowice przesuwają się w jedną i w drugą stronę, mierząc i kompensując zmiany rozmiarów talerzy.
Pozycja, w jakiej pracuje dysk Kolejną sprawą, jaką należy uwzględnić przed sformatowaniem dysku, jest upewnienie się, że podczas formatowania dysk znajduje się w tej samej pozycji, w jakiej będzie pracował po zainstalowaniu w systemie. Grawitacja może spowodować, że nastawnik głowicy będzie obciążony w różny sposób, co może wywołać błędy w odnajdywaniu ścieżek nawet wtedy, gdy położenie dysku zmienia się z pionowego na poziome. Efekt ten jest zminimalizowany lub nawet wyeliminowany w przypadku napędów z cewką drgającą, lecz pamiętanie o odpowiedniej pozycji dysku podczas formatowania na pewno nie zaszkodzi.
Warto również pamiętać, że dyski nie zabezpieczone odpowiednio przed wstrząsami powinny być formatowane tylko wtedy, gdy są zainstalowane w systemie, ponieważ śruby używane do ich zamontowania mogą wywierać nacisk na zespół głowic dysku (HDA - Head Disk Assembly), powodując nie uwzględniane w innym przypadku przesunięcie ścieżek. Jeśli zatem formatujesz dysk z mocno przykręconymi śrubami, może on przestać odczytywać dane po wykręceniu śrub - i odwrotnie. Należy uważać, by nie przykręcić śrub zbyt mocno, ponieważ wywołuje to nacisk na HDA. Zwykle nie stanowi to problemu w przypadku, gdy zespół głowic dysku jest odizolowany od ramy za pomocą gumowych podkładek. Podsumowując, podczas formatowania niskopoziomowego dysk powinien: • mieć typową temperaturę pracy, • być ustawiony w typowej pozycji, w jakiej będzie pracować, • być zamontowany w systemie docelowym (chyba że zespół głowic dysku jest zabezpieczony przed wstrząsami lub będzie odizolowany od ramy dysku przy użyciu gumowych podkładek). Ponieważ wiele rozmaitych rodzajów i modeli kontrolerów różni się sposobem zapisu danych na dysku, zwłaszcza ze względu na schemat kodowania, najlepiej sformatować dysk za pomocą kontrolera tej samej marki i modelu co kontroler, który będzie stosowany w systemie docelowym. Nie jest to jednak absolutnie konieczne, ze względu na to, że sposób działania wielu kontrolerów jest podobny. Problem ten oczywiście nie pojawia się w przypadku napędów IDĘ ani SCSI, ponieważ mają one wbudowane kontrolery. Jeśli kontroler określa typ dysku korzystając z własnej pamięci ROM, a nie z systemowego programu konfiguracyjnego, to zazwyczaj nie jest kompatybilny z innymi kontrolerami.
Formatowanie niskopoziomowe Ze wszystkich omawianych czynności, formatowanie niskopoziomowe jest najważniejsze dla zapewnienia bezawaryjnej pracy dysku. Formatowanie to jest najbardziej krytyczną z wykonywanych operacji i jeśli dysk ma działać poprawnie, musi ono zostać przeprowadzone właściwie. Na formatowanie niskopoziomowe składa się kilka etapów: • badanie dysku w celu określenia mapy uszkodzeń, • wybór przeplotu, • formatowanie i zaznaczenie (zmiana oznaczeń) uszkodzeń, • przeprowadzenie analizy powierzchni dysku. We wszystkich nowych systemach powyższe etapy przeprowadzane są automatycznie przez systemowy program formatowania niskopoziomowego i nie wymagają interwencji użytkownika. Jeśli więc masz w miarę nowy komputer, możesz bez obaw pominąć kilka kolejnych punktów i przejść do następnego interesującego cię tematu. Jeśli natomiast posiadasz starszy system, musisz te czynności wykonać samodzielnie, w czym poniższe informacje na pewno ci pomogą.
Aby przeprowadzić mapowanie uszkodzeń dysku, określić przeplot oraz dokonać analizy powierzchni, potrzebujesz pewnych informacji dotyczących dysku, kontrolera i prawdopodobnie systemu. Informacje te zwykle można znaleźć w oddzielnej dokumentacji i w podręczniku użytkownika, dołączanych do każdego z tych urządzeń; dlatego też kupując dysk i kontroler, upewnij się, że otrzymujesz także pełną dokumentację do nich. Zakres wymaganych informacji zależy od typu systemu, kontrolera oraz programu używanego do formatowania niskopoziomowego.
Mapowanie uszkodzeń Zanim dysk zostanie sformatowany, należy się dowiedzieć, czy ma on uszkodzenia, które trzeba oznaczyć. Do starszych dysków producenci dołączali listę uszkodzeń wykrytych podczas końcowego testowania jakości dysku. Uszkodzenia te były odpowiednio oznaczane, co zapobiegało późniejszemu przechowywaniu na ich obszarze programów lub danych. Proces mapowania uszkodzeń był jednym z najważniejszych aspektów formatowania niskopoziomowego, obecnie jest to jedynie historyczna ciekawostka, ponieważ formatowanie niskopoziomowe wykonywane jest niemal wyłącznie przez producenta. Jeśli chcesz jednak zrozumieć procedury mapowania uszkodzeń, musisz najpierw zrozumieć, co dzieje się podczas mapowania uszkodzenia na dysku. Na liście uszkodzeń podawanej przez producenta położenie uszkodzenia było zwykle określane za pomocą numeru cylindra i ścieżki. Wprowadzenie tej informacji do programu przeprowadzającego formatowanie niskopoziomowe umożliwia oznaczenie ścieżek zawierających uszkodzenia przez zapisanie nieprawidłowych wartości sum kontrolnych w nagłówkach każdego z sektorów takich ścieżek, w wyniku czego żadne dane nie mogą w nich zostać zapisane. Podczas wysokopoziomowego formatowania dysku, DOS-owy program FORMAT nie jest w stanie niczego z tych obszarów odczytać, więc odpowiednie klastry oznacza w tablicy alokacji plików (FAT) jako uszkodzone, przez co nie będą one nigdy używane. Lista uszkodzeń podawana przez producenta jest prawdopodobnie znacznie obszerniejsza niż ta, którą może wygenerować odpowiedni program systemowy, ponieważ sprzęt testujący używany przez producenta jest o wiele czulszy od zwykłego kontrolera dysku. Program FORMAT nie wykrywa uszkodzeń automatycznie; trzeba je więc wprowadzać ręcznie. Wyjątek stanowią tutaj nowe systemy, w których lista uszkodzeń jest zakodowana w specjalnym obszarze dysku, do którego zwykłe oprogramowanie nie ma dostępu. Program do formatowania niskopoziomowego (zapisany w BIOS-ie płyty głównej) potrafi odczytać taką mapę, eliminując w ten sposób konieczność ręcznego wpisywania położenia uszkodzeń. Jeśli BIOS płyty głównej nie zawiera wbudowanego programu do formatowania niskopoziomowego, lepiej nie przeprowadzaj tego typu formatowania w przypadku dysku IDĘ.
Wszystkie nowe dyski są formatowane niskopoziomowo przez producenta. Jeśli posiadasz system, w którym dysk został już zainstalowany przez producenta lub sprzedawcę, formatowanie niskopoziomowe najprawdopodobniej zostało już wykonane. Większość producentów nie zaleca już przeprowadzania formatowania niskopoziomowego dysków typu IDĘ. Mimo że z technicznego punktu widzenia rzeczywiste uszkodzenie nie jest tym samym co uszkodzenie oznaczone, prawidłowe sformatowanie dysku spowoduje, że będą się one ze sobą pokrywać. Mogę jednak wpisać położenie poprawnej ścieżki do programu formatowania niskopoziomowego, określając ją jako uszkodzoną. Program formatujący generuje wówczas nieprawidłowe wartości sum kontrolnych w sektorach na tej ścieżce, co sprawia, że zapisanie na nich danych bądź ich odczytanie staje się niemożliwe. Kiedy DOS-owy program FORMAT natrafia na taką ścieżkę, nie może jej odczytać i oznacza znajdujące się na niej klastry jako uszkodzone. Później, podczas użytkowania dysku, DOS dba o to, aby żadne dane nigdy nie zostały zapisane na tej ścieżce. Ten stan dysku utrzymuje się do chwili ponownego formatowania niskopoziomowego i oznaczenia ścieżki jako nie uszkodzonej. Następnie, podczas ponownego formatowania wysokiego poziomu, ścieżka zostaje odczytana, a znajdujące się na niej klastry oznaczone jako „używalne". Ogólnie rzecz biorąc, jeśli dany obszar nie został określony jako uszkodzony podczas formatowania niskiego poziomu, nie zostanie również wykryty jako uszkodzony podczas formatowania wysokopoziomowego i w konsekwencji system operacyjny będzie go wykorzystywał do przechowywania danych. Jeśli podczas formatowania niskiego poziomu uszkodzenie z listy producenta nie zostanie wprowadzone, spowoduje to utratę danych zapisanych na tym obszarze. Niestety, programy do formatowania niskopoziomowego nie potrafią automatycznie odszukiwać i oznaczać uszkodzonych obszarów na dysku. Dlatego potrzebna jest przygotowana przez producenta lista uszkodzeń. Jest ona uzyskiwana na podstawie testów przeprowadzanych na bardzo czułym sprzęcie, testującym dysk na poziomie analogowym. Wielu producentów oznacza jako uszkodzone nawet te obszary, których uszkodzenia są bardzo nieznaczne. Problem polega na tym, że obszar lekko uszkodzony dzisiaj, w przyszłości może stać się zupełnie zniszczony, uniemożliwiając odczytanie zapisanych na nim danych. Powinno się unikać wszelkich niepewnych obszarów, podając je podczas formatowania niskopoziomowego jako uszkodzone, dzięki czemu zostaną one oznaczone i DOS nie będzie z nich korzystać.
Wyszukiwanie oznaczonych uszkodzeń Większość programów do formatowania niskopoziomowego ma możliwość przeszukania dysku w celu odnalezienia obszarów, które już kiedyś zostały oznaczone jako uszkodzone. W niektórych programach operacja ta nazywa się „defect scan", czyli wyszukiwanie uszkodzeń; IBM w swoim programie „IBM Advanced Diagnostics" nazywa ją „Read Verify" (weryfikacja odczytu). Operacja tego typu podaje jako rezultat - określając cylinder i głowicę - pozycje wszystkich ścieżek oznaczonych jako uszkodzone. Nie należy tego mylić z prawdziwym skanowaniem dysku w celu wyszukania uszkodzonych ścieżek, które jest operacją niszczącą - tj. wymazującą dane ~ zwykle nazywaną analizą powierzchni (operacja ta została omówiona w punkcie „Analiza powierzchni" w dalszej części niniejszego rozdziału).
Jeśli dysk był już kiedyś formatowany niskopoziomowo, przed jego ponownym sformatowaniem powinno się przeprowadzić wyszukiwanie oznaczonych uszkodzeń, z kilku powodów: • Aby się upewnić, że podczas poprzedniego formatowania niskopoziomowego wszystkie uszkodzenia podane przez producenta zostały właściwie oznaczone. Porównaj wyniki wyszukiwania błędów z listą dostarczoną przez producenta i zwróć uwagę na rozbieżności. Te uszkodzenia z listy producenta, które nie zostały odnalezione podczas wyszukiwania uszkodzeń, nie są poprawnie oznaczone. • Aby odnaleźć ścieżki oznaczone jako uszkodzone, których nie ma na liście uszkodzeń dostarczonej przez producenta. Tego rodzaju ścieżki mogły zostać dodane przez program analizujący powierzchnię dysku lub pojawić się w wyniku błędu literowego popełnionego podczas wpisywania listy uszkodzeń podanych przez producenta. Kiedyś zdarzyło mi się, że na jednej z fabrycznych list uszkodzeń jako obszar uszkodzony oznaczony został cylinder 514, głowica 14. Jednak podczas wyszukiwania uszkodzeń okazało się, że ścieżka ta jest poprawna, natomiast uszkodzona jest ścieżka oznaczona jako cylinder 814, głowica 14. Ponieważ ten drugi obszar nie pojawiał się na liście producenta, a wpisanie „5" zamiast „8" jest pomyłką, którą łatwo popełnić, uznałem, że przyczyną niezgodności jest błąd literowy i ponownie sformatowałem dysk niskopoziomowo, oznaczając tym razem ścieżkę: cylinder 814, głowica 14 jako obszar uszkodzony, a ścieżkę: cylinder 514, głowica 14 „odznaczyłem" jako prawidłową. Jeśli więc podczas analizy powierzchni wykryjesz dodatkowe, nie znajdujące się na liście producenta uszkodzenia, możesz zrobić jedną z dwóch rzeczy: • jeśli dysk jest objęty gwarancją, zastanów się nad zwróceniem go; • jeśli okres gwarancji się skończył, łap za długopis i zapisz dodatkowe ścieżki wykryte przez program analizujący powierzchnię dysku na kartce z listą uszkodzeń (wbudowany w BIOS systemowy program formatowania niskopo-ziomowego przeprowadza analizę powierzchni natychmiast po zakończeniu formatowania; jeśli wykryje jakieś dodatkowe uszkodzenia, automatycznie dołącza je do listy uszkodzeń zapisanej na dysku). Zapisywanie nowych uszkodzeń na kartce umożliwia ręczne oznaczenie obszarów uszkodzonych, w razie gdyby nie zostały wykryte zaraz po sformatowaniu.
Lista uszkodzeń podana przez producenta Producent testuje nowe dyski twarde przy pomocy skomplikowanego, analogowego sprzętu testującego, który przeprowadza szczegółową analizę powierzchni talerzy dysku. Za pomocą tego sposobu testowania można określić z bardzo dużą dokładnością parametry funkcjonalne każdego obszaru dysku, przeprowadzając precyzyjne pomiary takich informacji, jak stosunek sygnału do szumu i dokładność zapisu. Niektórzy producenci stosują ostrzejsze niż inni normy przy określaniu uszkodzeń. Wiele osób martwi się tym, że kupując nowy dysk twardy otrzymuje także listę uszkodzeń; niektórzy nawet domagają się, aby sprzedawca zainstalował im nowy, pozbawiony uszkodzeń dysk. Sprzedawca może spełnić to żądanie wymieniając dysk na inny, wy produkowany przez firmę stosującą mniej surową kontrolę jakości.
Lista uszkodzeń będzie pusta, ale jakość dysku będzie niższa. Dyski producenta podającego większą liczbę uszkodzeń na liście dołączanej do dysku są zwykle produktami wysokiej jakości, ponieważ duża liczba uszkodzeń podawanych na tej liście jest przede wszystkim wynikiem wysokiego poziomu kontroli jakości. To, co jest uznawane za uszkodzenie, zależy bowiem głównie od tego, kto interpretuje wyniki testu. Aby oznaczyć uszkodzenia podane przez producenta, sprawdź najpierw w dokumentacji programu do formatowania niskopoziomowego, jak to zrobić. W przypadku większości dysków, lista uszkodzeń dostarczona przez producenta określa położenie uszkodzonych obszarów podając cylinder i głowicę. Niektóre listy określają to położenie z dokładnością do bitu na uszkodzonej ścieżce, rozpoczynając od położenia indeksu. Zanim przejdziesz do następnego etapu formatowania niskopoziomowego, upewnij się, że wszystkie uszkodzone obszary podane przez producenta zostały oznaczone. Niektóre systemy automatycznie oznaczają uszkodzenia podane przez producenta korzystając ze specjalnego pliku zawierającego położenie uszkodzeń, zapisanego na dysku przez producenta. W przypadku takiego systemu potrzebny jest specjalny program do formatowania niskopoziomowego, który potrafi odnaleźć i odczytać ten plik. Automatyczne mapowanie uszkodzeń jest standardem w systemach IBM PS/2 i SCS1 oraz w większości systemów ESDI. Skontaktuj się z producentem dysku lub kontrolera, aby otrzymać właściwy program do formatowania niskopoziomowego i obsługi uszkodzeń dysku. Narzędzia pozwalające odzyskać dane, takie jak „ScanDisk" (dla systemów DOS i Windows) czy „Norton Utiiities", nie potrafią oznaczać sektorów czy ścieżek na fizycznym poziomie formatowania. Oznaczenia uszkodzonych klastrów, wykonywane przez te programy, są przechowywane tylko w tablicy alokacji plików (PAT), skąd łatwo je przypadkowo usunąć podczas najbliższej operacji formatowania wysokiego poziomu. W celu poprawnego oznaczenia uszkodzonych sektorów warto więc użyć odpowiedniego narzędzia do formatowania niskopoziomowego, napisanego specjalnie na potrzeby używanego dysku (skontaktuj się w tej sprawie z jego producentem), które poprawnie oznaczy uszkodzone sektory i przydzieli sektory zapasowe, wykonując te operacje na poziomie fizycznym dysku.
Analiza powierzchni Wyszukiwanie uszkodzeń to proces przeszukiwania dysku w celu wykrycia oznaczonych uszkodzeń; analiza powierzchni to proces przeszukiwania dysku w celu wykrycia rzeczywistych uszkodzeń. Podczas analizy powierzchni ignorowane są ścieżki oznaczone podczas formatowania niskopoziomowego jako uszkodzone, a testuje się ścieżki nie oznaczone. Program przeprowadzający analizę powierzchni zapisuje 512 bajtów w każdym sektorze na „poprawnej" ścieżce, odczytuje sektor i porównuje odczytane dane z tym, co zostało zapisane. Jeśli dane się nie zgadzają, program (tak samo jak podczas formatowania niskopoziomowego) oznacza ścieżkę jako uszkodzoną, wpisując nieprawidłowe wartości sum kontrolnych w każdym sektorze ścieżki. Poprawnie przeprowadzona analiza powierzchni działa tak samo jak program do formatowania niskopoziomowego, w tym sensie, że pomija DOS oraz BIOS, dzięki czemu może wyłączyć próby ponownego odczytu danych przez kontroler, a także badać, kiedy kod korekcji błędów (ECC - ang. Error Correction Code) jest wywoływany do korygowania błędów oprogramowania (błędów miękkich).
Programy analizujące powierzchnię dysku działają w sposób niszczący - oznacza to, że zapisują nowymi, przypadkowymi danymi wszystkie sektory z wyjątkiem tych, które już zostały oznaczone jako uszkodzone. Program do analizy powierzchni powinno się uruchamiać natychmiast po przeprowadzeniu formatowania niskopoziomowego, aby określić, czy pojawiły się jakieś dodatkowe uszkodzenia inne niż podane przez producenta lub oznaczone podczas formatowania. Przeprowadzenie wyszukiwania uszkodzeń zaraz po formatowaniu niskopoziomowym oraz analizy powierzchni daje łączną listę ścieżek oznaczonych przez oba programy jako uszkodzone. W razie utraty dostarczonej przez producenta listy uszkodzeń, możesz sprawdzić, które sektory są uszkodzone, wykorzystując program analizujący powierzchnię dysku. Program taki jednak nigdy nie będzie ani tak dokładny, ani tak wrażliwy jak oryginalne testy producenta. Zazwyczaj w przypadku nowych dysków nie uruchamiam analizy powierzchni po zakończeniu formatowania niskiego poziomu, mimo że jest to polecane w przypadku wystąpienia jakichś problemów z dyskiem. Nie robię tego z kilku powodów: • W porównaniu z formatowaniem, analiza powierzchni dysku zajmuje dużo czasu. Większość programów do analizy powierzchni pracuje od dwóch do pięciu razy dłużej niż programy formatujące niskopoziomowo. Formatowanie dysku o wielkości 120 MB zajmuje około 15 minut, zaś analiza powierzchni tego samego dysku - ponad godzinę. Co więcej, jeżeli zwiększysz dokładność analizy powierzchni, włączając opcje wielokrotnego powtarzania analizy, zajmie ona jeszcze więcej czasu. • W przypadku dysków o wysokiej jakości nigdy nie zdarza mi się znaleźć innych błędów niż te, które wymienił producent. W praktyce programy analizy powierzchni dysku nie znajdują nawet wszystkich wymienionych przez producenta uszkodzeń, o ile sam ich uprzednio nie wpiszę. Ponieważ używam dysków wysokiej jakości, które zostały przez producenta przetestowane w większym stopniu, niż jest w stanie to uczynić program w moim systemie, oznaczam jedynie wszystkie uszkodzenia z listy producenta podczas formatowania niskiego poziomu. Gdybym używał dysku niskiej jakości lub instalował używany dysk, nie objęty już gwarancją, rozważyłbym przeprowadzenie analizy powierzchni dysku po formatowaniu niskopoziomowym.
Po co przeprowadzać formatowanie niskiego poziomu Chociaż generalnie formatowanie niskopoziomowe dysków IDĘ oraz SCSI nie jest ani potrzebne, ani nawet zalecane, to istnieje kilka powodów, dla których warto wziąć pod uwagę przeprowadzenie tego rodzaju formatowania. Pierwszym z nich jest fakt, że formatowanie niskopoziomowe wymazuje wszystkie dane z dysku, co upewnia nas, że inni nie będą mogli ani odczytać, ani odtworzyć tych danych. Procedura ta jest przydatna w razie sprzedaży systemu, gdy nie chcemy, aby nabywca mógł odczytać nasze dane. Inne przyczyny, dla których warto wymazać wszystkie dane z dysku, to: • usunięcie partycji z uszkodzonym systemem, • usunięcie partycji, na której zainstalowany był system inny niż DOS, • usunięcie infekcji wirusowej.
Najważniejszym powodem, dla którego warto przeprowadzić formatowanie niskiego poziomu, jest jednak zarządzanie uszkodzeniami. Jak łatwo zauważyć, programy takie jak CHKDSK nie rozpoznają żadnych uszkodzonych sektorów w większości dysków ATA IDĘ. Wszelkie defekty, które znajdowały się na dysku po jego wyprodukowaniu, są ponownie alokowane dzięki fabrycznemu formatowaniu niskiego poziomu. Zasadniczo wszystkie uszkodzone sektory są zastępowane przez sektory zapasowe znajdujące się w innych częściach dysku. Jeżeli pojawi się jakieś nowe uszkodzenie, na przykład z powodu krótkiego zetknięcia się głowicy i talerza lub nieprawidłowego obchodzenia się z dyskiem, odpowiedni program formatowania niskopoziomowego, właściwy dla danego dysku IDĘ, może ukryć uszkodzone sektory i zastąpić je zapasowymi, przywracając dysk do stanu, w którym wydaje się on wolny od usterek. Ponieważ specyfikacja IDĘ (ATA) jest rozszerzeniem interfejsu kontrolera IBM/WD ST-506/412, zawiera kilka nowych poleceń CCB, których brak było w oryginalnej obsłudze INT 13h/CCB. Niektóre z owych poleceń są właściwe tylko dla danego producenta dysków IDĘ. Część producentów używa tych specyficznych poleceń CCB do zadań takich jak powtórne zapisywanie nagłówka sektora w celu oznaczenia, że jest on uszkodzony, co z grubsza oznacza właśnie formatowanie niskopoziomowe. Za pomocą tych poleceń kontroler dysku może ponownie zapisać nagłówki sektorów oraz obszary danych, a potem ostrożnie omijać wszystkie informacje serwomechanizmu (o ile napęd ten używa serwomechanizmu osadzonego). Formatowanie niskiego poziomu dysków IDĘ jest możliwe, chociaż niektóre z nich, w celu uaktywnienia pewnych opcji tego formatowania i zarządzania uszkodzeniami, wymagają używania specjalnych, specyficznych dla producenta poleceń. Firmy Seagate, Western Digital, Maxtor, IBM i inne tworzą bowiem własne oprogramowanie służące do formatowania niskopoziomowego, obsługi sektorów zapasowych i zarządzania uszkodzeniami, odpowiednie dla produkowanych przez siebie dysków IDĘ. Dyski Conner różnią się pod tym względem, gdyż do sformatowania ich niskopoziomowo potrzebne jest specjalne urządzenie, dołączane do gniazda portu diagnostycznego dysku. Firma TCE sprzedaje takie urządzenie za 99 dolarów. Nazywa się ono „The Conner" i zawiera oprogramowanie wraz ze specjalnym urządzeniem umożliwiającym rzeczywiste formatowanie niskopoziomowe (łącznie z powtórnym zapisywaniem wszystkich sektorów i ich nagłówków oraz pełnym zarządzaniem uszkodzeniami i sektorami zapasowymi) na poziomie fabrycznym. Inne firmy opracowały oprogramowanie do formatowania niskiego poziomu, które rozpoznaje określony typ dysku i używa odpowiednich dla jego producenta poleceń formatowania i mapowania uszkodzeń. Najlepszym z tych programów jest „Disk Manager" firmy Ontrack. Programem diagnostycznym ogólnego zastosowania, który również obsługuje formatowanie dysków IDĘ, jest pakiet „MicroScope" firmy Micro 2000. Aby można było sformatować „inteligentne" dyski IDĘ, muszą się one znajdować w trybie nie umożliwiającym translacji sektorów. Dyski korzystające z zapisywania strefowego mogą więc być sformatowane niskopoziomowo jedynie częściowo. Uaktualniana jest wówczas mapa uszkodzeń, a nowo uszkodzone sektory mogą być oznaczone i zastąpione, jednak nagłówki sektorów są zazwyczaj powtórnie zapisywane tylko częściowo i jedynie na użytek mapowania uszkodzeń. Tak czy inaczej następuje zapis do niektórych nagłówków sektorów i wykonywane jest fizyczne (na poziomie sektorów) mapowanie uszkodzeń oraz zastępowanie sektorów. Taka procedura to właśnie, zgodnie ze standardową definicją, formatowanie niskiego poziomu.
W napędzie z serwomechanizmem osadzonym, wszystkie informacje dla serwomechanizmu, znajdujące się na danej ścieżce, są zapisywane równocześnie przez wyspecjalizowany (zazwyczaj kierowany laserem) serwopis. Informacje serwomechanizmu używane są do ciągłej aktualizacji pozycji głowicy w czasie pracy napędu, tak aby mógł on automatycznie kompensować efekty termiczne. W wyniku tego wszystkie pojedyncze informacje dla serwomechanizmu znajdują się na ścieżce w jednej linii. Ponieważ serwomechanizm kontroluje pozycję głowicy, nie występuje zauważalne przesunięcie głowic względem sektorów, jakie mogłoby się zdarzyć w dyskach nie wyposażonych w serwomechanizm. Dlatego też niskopoziomowe formatowanie dysków wyposażonych w serwomechanizm osadzony, mimo że możliwe, rzadko jest potrzebne. Jedynym celem takiego formatowania w przypadku tego rodzaju dysków jest wykonanie dodatkowego mapowania lub zastępowania sektorów na poziomie fizycznym, w celu obsłużenia uszkodzeń, które mogły się pojawić po wyprodukowaniu dysku. Ponieważ w tego rodzaju dyskach przesunięcie nie występuje, jeżeli któryś sektor okaże się wadliwy, powinien zostać na stałe oznaczony jako uszkodzony. Wada fizyczna nie może zostać naprawiona przez ponowne formatowanie dysku. Większość dysków IDĘ ma trzy do czterech zapasowych sektorów dla każdego fizycznego cylindra dysku. Łącznie stanowi to wiele setek dodatkowych sektorów o wiele więcej niż potrzeba, aby pomieścić pierwotne oraz wszystkie kolejne uszkodzenia. Jeżeli więc uszkodzonych sektorów dysku jest więcej niż tych sektorów dodatkowych, oznacza to, że dysk jest prawdopodobnie poważnie uszkodzony fizycznie, a uszkodzenia tego nie można naprawić przy użyciu oprogramowania.
Oprogramowanie do formatowania niskiego poziomu Do formatowania niskopoziomowego często można używać jednego z kilku różnych programów, lecz nie ma niestety pojedynczego programu, który pracowałby na wszystkich napędach lub systemach. Ponieważ programy te muszą bardzo ściśle współpracować z kontrolerem, często są specyficzne dla danego rodzaju kontrolera. Dlatego najlepsze programy do formatowania poleci zapewne producent kontrolera. Jeżeli razem z kontrolerem dostarczony jest program do formatowania niskiego poziomu (zazwyczaj jest zapisany w pamięci ROM kontrolera), to do formatowania należy używać właśnie tego programu, ponieważ jest on zaprojektowany stosownie do specyfiki kontrolera, do którego jest dołączony. Na przykład program producenta może wykorzystywać specjalne opcje mapowania uszkodzeń. Inny program formatujący mógłby nie tylko nieprawidłowo używać stworzonej przez producenta mapy uszkodzeń, ale nawet zapisać na niej swoje dane i ją zniszczyć. Jako program ogólnego zastosowania do dysków ST-506/412, ESDI lub IDĘ, polecam „Disk Manager" firmy Ontrack. Wyłącznie dla interfejsu ST-506/412 polecam „IBM Advanced Diagnostics" lub „HDtest" Jima Brackinga, produkt wspomagany przez użytkowników, który można znaleźć na wielu BBS-ach, w tym w sieci CompuServe. Dla systemów SCSI oraz takich, na których nie działają inne polecane programy, należy używać programów formatujących dostarczonych z kontrolerem SCSI.
Jak działają programy służące do formatowania niskiego poziomu Istnieje kilka sposobów niskopoziomowego formatowania dysku. Najprostszym jest wywołanie BIOS-u przy użyciu jednej z funkcji przerwania INT 13h, jak na przykład polecenia INT 13h, function 05h (Format Tracki. BIOS przekształca następnie to polecenie w polecenie CCB (Command Control Block), czyli w blok bajtów wysyłany z odpowiednich portów I/O bezpośrednio do kontrolera dysku. W tym przykładzie BIOS otrzyma polecenie INT 13h, 05h i przekształci je na polecenie CCB 50h (Format Track), które zostanie wysłane przez port rejestru poleceń (Command Register Port), o adresie I/O lF7h dla dysków ST-506/412 lub IDĘ. Kiedy kontroler otrzyma polecenie CCB Format Track, może w rzeczywistości sformatować ścieżkę lub po prostu wypełnić obszary danych w każdym sektorze na ścieżce wcześniej zdefiniowanym wzorcem. Najlepszym sposobem niskopoziomowego formatowania dysku jest pominięcie BIOS-u i wysyłanie poleceń CCB bezpośrednio do kontrolera. Największą korzyścią wynikającą z bezpośredniego przesyłania poleceń do kontrolera dysku jest możliwość prawidłowego oznaczania uszkodzonych sektorów za pomocą polecenia CCB Format Track, w tym możność zastąpienia sektorów, dzięki czemu prawidłowo sformatowane w niskim poziomie dyski IDĘ nigdy nie wykazują uszkodzonych sektorów. Wykorzystanie poleceń CCB umożliwia również odczytywanie rejestru stanu poleceń oraz rejestru błędów (pozwala to wykryć między innymi dane po korekcji ECC, co jest maskowane przez przerwanie INT 13h DOS-u). Możliwe jest także wykrycie, czy sektor został oznaczony jako uszkodzony przez producenta czy podczas ostatniego formatowania niskopoziomowego, oraz zachowanie tych oznaczeń we wszystkich kolejnych poleceniach Format Track, co umożliwia ochronę listy uszkodzeń. Nie polecam usuwania oznaczenia uszkodzonego sektora (co przywraca go do stanu „dobry"), zwłaszcza gdy został on w ten sposób oznaczony przez producenta. Wykorzystanie poleceń CCB umożliwia odczyt i zapis sektorów z automatycznym powtarzaniem prób, jak również wyłączoną korekcją ECC. Jest to podstawowa możliwość charakteryzująca dobrej jakości program analizy powierzchni dysku lub formatowania niskiego poziomu. Dlatego właśnie polecam programy, które używają sprzętowego interfejsu CCB zamiast interfejsu DOS INT 13h.
„Disk Manager" firmy Ontrack Program „Disk Manager" firmy Ontrack nadaje się znakomicie dla systemów typu AT i innych, wyposażonych w kontrolery nie umożliwiające autokonfiguracji. Jest to prawdopodobnie najbardziej złożone z narzędzi służących do formatowania dysków twardych. Posiada wiele możliwości, które sprawiają, że jest jednym z najbardziej przydatnych narzędzi systemowych. „Disk Manager" jest programem umożliwiającym rzeczywiste formatowanie na poziomie rejestrów, który omija BIOS i bezpośrednio obsługuje kontroler dysku. Bezpośredni dostęp do kontrolera wzbogaca zakres jego funkcji o niemożliwe do uzyskania przy użyciu programów pracujących z wykorzystaniem BIOS-u. Jedną z owych zaawansowanych funkcji jest możliwość ustawiania współczynników przesunięcia głowicy i cylindra. „Disk Manager" potrafi także wykryć sporadyczne błędy o wiele skuteczniej niż większość innych programów, ponieważ może wyłączyć automatyczne powtarzanie prób, które jest stosowane przez większość kontrolerów. Program ten może również określić, kiedy do korekcji danych używano kodu korekcji błędów (kodu ECC), i wykryć pojawienie się błędu, jak również bezpośrednio manipulować bajtami używanymi przez kod ECC. „Disk Manager" został napisany w sposób umożliwiający mu obsługę większości dysków IDĘ. Wykorzystuje on polecenia specyficzne dla wielu różnych producentów, co pozwala mu na rzeczywiste formatowanie niskopo-ziomowe większości dysków IDĘ. Wszystkie te cechy sprawiają, że „Disk Manager" jest jednym z najlepszych i posiadających najwięcej możliwości programów służących do formatowania niskiego poziomu. Tak doskonały program do formatowania dysków jak „Disk Manager" jest potrzebny każdemu, kto zajmuje się serwisem, utrzymaniem w ruchu, naprawą czy unowocześnianiem komputerów PC. Oprócz niego, firma Ontrack oferuje również znakomity pakiet programów użytkowych - pod nazwą „DOS Utiis" - służących do diagnostyki dysku twardego oraz odzyskiwania danych.
„HDtest" „HDtest" jest znakomitym programem formatującym na poziomie BIOS-u, który będzie działał na praktycznie każdym dysku obsługującym interfejs przerwania INT 13h, czyli na większości dysków. Programowi „HDtest" brakuje niektórych możliwości programów formatowania rzeczywistego na poziomie rejestrów, lecz może być z powodzeniem używany tam, gdzie dodatkowe opcje programu pracującego na poziomie rejestrów nie są potrzebne. Na przykład program ten może być użyty w celu szybkiego wymazania wszystkich danych z dysku, niezależnie od typu interfejsu i kontrolera dysku. „HDtest" nadaje się również do testowania odczytu i zapisu na poziomie BIOS-u oraz okazał się szczególnie użyteczny podczas weryfikowania funkcji kodów BIOS-u dysku. „HDtest" Johna Brackinga to program wspomagany przez użytkowników. Jest on rozprowadzany poprzez BBS-y i biblioteki darmowego oprogramowania (znajdujące się na domenach publicznie dostępnych). Program ten można również otrzymać z Public So-ftware Library. Kosztuje on 35 dolarów, lecz można go wypróbować za darmo. „HDtest" jest wyposażony w łatwy w użyciu interfejs użytkownika i system rozwijanych menu. Program oferuje wszystkie funkcje znajdujące się w standardowych programach do formatowania niskopoziomowego i kilka dodatkowych, takich jak:
• zwykłe formatowanie, • mapowanie uszkodzeń, • analiza powierzchni, • test przepiciu, • nie niszczące formatowanie niskiego poziomu, • testy dysku twardego (te same, co zamieszczone w programie „IBM Advanced Diagnostics") obejmujące testy na odszukiwanie ścieżek, wybór głowicy, wykrywanie i korekcję błędów, jak również odczyt, zapis i weryfikację cylindra diagnostycznego; przy czym „HDtest" może również przekazywać do kontrolera niskopoziomowe polecenia BIOS-u. „HDtest" zawiera większość elementów, których można wymagać od typowego programu służącego do formatowania niskopoziomowego, będącego równocześnie narzędziem diagnostyki dysku twardego. Jego faktycznym ograniczeniem jest to, że działa jedynie poprzez BIOS i nie potrafi wykonywać funkcji, które może realizować program formatujący w sposób rzeczywisty na poziomie rejestrów. W niektórych przypadkach program ten nie będzie w stanie sformatować niskopoziomowo dysku, z którym bez problemu poradziłby sobie program formatujący na poziomie rejestrów. Jedynie bowiem tego rodzaju programy umożliwiają mapowanie uszkodzeń w większości środowisk IDĘ i SCSI.
Programy formatowania niskiego poziomu dla dysków SCSI Jeśli posiadasz dysk SCSI, musisz używać programu do formatowania niskopoziomowego dostarczonego przez producenta kontrolera SCSI. Konstrukcja tych urządzeń różni się na tyle, że programy działające na poziomie rejestrów mogą pracować jedynie wtedy, gdy zostały zaprojektowane dla konkretnego kontrolera. Na szczęście wszystkie kontrolery SCSI posiadają odpowiednie oprogramowanie służące do formatowania - w BIOS-ie kontrolera lub na oddzielnej dyskietce. Interfejsem dla dysku SCS1 jest obsługujący go kontroler. Architektura SCSI jest standardem, ale nie ma standardów określających sposób budowy kontrolera. Oznacza to, że wszelkie oprogramowanie służące do formatowania lub konfiguracji jest specyficzne dla określonego typu kontrolera. Na przykład IBM dostarcza programy formatujące dysk i zarządzające uszkodzeniami, które pracują z kontrolerami SCS1 IBM PS/2, bezpośrednio na dyskietce „PS/2 Reference". Programy te wykonują wszelkie czynności, jakie mogą być potrzebne w odniesieniu do dysku SCS1 podłączonego do kontrolera IBM. IBM zdefiniował standardowy interfejs dla swojego kontrolera, używający przerwań 1NT 13h oraz FNT 4Bh BIOS-u zainstalowanego na karcie kontrolera. Kontrolery firmy IBM zawierają specjalny interfejs AB10S (Advanced BIOS), który pracuje w trybie chronionym procesora (do użytku w systemach działających w trybie chronionym, takich jak np.OS/2). W pamięci ROM BIOS-u wielu kontrolerów SCSI umieszczane jest często kompletne oprogramowanie służące do instalowania, konfigurowania i formatowania dysków. BIOS większości z tych kontrolerów zawiera także interfejs 1NT 13h. Najlepszym tego przykładem są kontrolery Adaptec 1540/1542C, w których pamięci ROM znajdują się programy umożliwiające pełną konfigurację kontrolera i wszystkich dołączonych do niego urządzeń SCS1. Proszę zwrócić uwagę, że oprogramowanie SCSI służące do formatowania i konfigurowania jest przystosowane do kontrolera, a nie do określonego typu dysku SCSI. Proszę zwrócić uwagę, że oprogramowanie SCSI służące do formatowania i konfigurowania jest przystosowane do kontrolera, a nie do określonego typu dysku SCSI.
Programy formatowania niskiego poziomu dla dysków IDE Producenci dysków IDE zdefiniowali rozszerzenia standardowego interfejsu AT WD1002/ 1003, które później zostały ustandaryzowane jako interfejs ATA (AT Attachment). Specyfikacja ATA uwzględnia swoiste polecenia producentów, stanowiące ich własne rozszerzenia standardu. Aby zapobiec nieprawidłowemu formatowaniu niskiego poziomu, wiele dysków IDĘ wymaga wprowadzenia specjalnych kodów w celu odblokowania procedur formatowania. Kody te są różne dla różnych producentów. O ile to możliwe, uzyskaj od producenta dysku oprogramowanie do formatowania niskiego poziomu oraz zarządzania uszkodzeniami. Takie oprogramowanie jest zazwyczaj specyficzne dla produktów danej firmy. Indywidualny charakter dysków z interfejsem ATA jest źródłem kilku mitów na temat IDĘ. Często na przykład słyszy się, że nie wolno formatować niskopoziomowo dysku IDĘ, gdyż powoduje to zniszczenie dysku. Jest to nieprawda! Owszem, może się zdarzyć, że w niektórych dyskach nowe ustawienie współczynników przesunięcia głowicy i cylindra nie będzie dla dysku tak optymalne, jak ustawienia producenta. Można również zapisać nową mapę uszkodzeń, usuwając przy tym starą. Spowoduje to zapewne obniżenie efektywności działania dysku, który mimo to nadal może być używany bez żadnych problemów, o ile zostanie przeprowadzona prawidłowa analiza jego powierzchni. Większość dysków ATA IDĘ jest zabezpieczona przed wszelkimi zmianami współczynników przesunięcia głowicy i cylindra oraz przed usunięciem mapy uszkodzeń, ponieważ znajdują się one w trybie translacji. Dyski korzystające z zapisywania strefowegoProgramy formatowania niskiego poziomu dla dysków IDĘ Producenci dysków IDĘ zdefiniowali rozszerzenia standardowego interfejsu AT WD1002/ 1003, które później zostały ustandaryzowane jako interfejs ATA (AT Attachment). Specyfikacja ATA uwzględnia swoiste polecenia producentów, stanowiące ich własne rozszerzenia standardu. Aby zapobiec nieprawidłowemu formatowaniu niskiego poziomu, wiele dysków IDĘ wymaga wprowadzenia specjalnych kodów w celu odblokowania procedur formatowania. Kody te są różne dla różnych producentów. O ile to możliwe, uzyskaj od producenta dysku oprogramowanie do formatowania niskiego poziomu oraz zarządzania uszkodzeniami. Takie oprogramowanie jest zazwyczaj specyficzne dla produktów danej firmy. Indywidualny charakter dysków z interfejsem ATA jest źródłem kilku mitów na temat IDĘ. Często na przykład słyszy się, że nie wolno formatować niskopoziomowo dysku IDĘ, gdyż powoduje to zniszczenie dysku. Jest to nieprawda! Owszem, może się zdarzyć, że w niektórych dyskach nowe ustawienie współczynników przesunięcia głowicy i cylindra nie będzie dla dysku tak optymalne, jak ustawienia producenta. Można również zapisać nową mapę uszkodzeń, usuwając przy tym starą. Spowoduje to zapewne obniżenie efektywności działania dysku, który mimo to nadal może być używany bez żadnych problemów, o ile zostanie przeprowadzona prawidłowa analiza jego powierzchni. Większość dysków ATA IDĘ jest zabezpieczona przed wszelkimi zmianami współczynników przesunięcia głowicy i cylindra oraz przed usunięciem mapy uszkodzeń, ponieważ znajdują się one w trybie translacji. Dyski korzystające z zapisywania strefowego zawsze znajdują się w tym trybie i w związku z tym zawsze są w pełni zabezpieczone. Większość dysków ATA ma własny zestaw poleceń, który musi być używany podczas procesu formatowania. Standardowe polecenia
formatowania, określone w specyfikacji ATA, zazwyczaj nie działają, zwłaszcza w stosunku do „inteligentnych" lub korzystających z zapisywania strefowego dysków IDĘ. Bez odpowiednich poleceń formatujących, jakie ustalił producent, nie jest możliwe zarządzanie uszkodzeniami w sposób przez niego określony, umożliwiający zastępowanie uszkodzonych sektorów. Obecnie niektórzy producenci oferują specyficzne dla swoich dysków IDĘ oprogramowanie, służące do formatowania niskopoziomowego i zarządzania uszkodzeniami. Są to: • Seagate • Maxtor • Western Digital • IBM Są one dostępne w sieci na różnych BBS-ach prowadzonych przez te firmy. Dyski firmy Conner Peripherals są całkowicie odmienne pod tym względem i nie mogą być sformatowane niskopoziomowo za pomocą standardowego interfejsu. Formatowanie musi być przeprowadzone z wykorzystaniem urządzenia dołączanego do specjalnego 12-pinowego portu służącego do diagnostyki i instalacji tego dysku. Firma TCE sprzedaje niedrogie urządzenie, które umożliwia połączenie komputera PC z tym złączem poprzez port szeregowy systemu. Zawiera ono także specjalne oprogramowanie, które potrafi przeprowadzać złożone testy, formatowanie oraz operacje analizy powierzchni. Produkt ten nazywa się „The Conner". Jeśli chodzi o dyski innych producentów, polecam programy „Disk Manager" firmy Ontrack oraz „MicroScope" firmy Micro 2000. Programy te umożliwiają formatowanie większości dysków IDĘ, ponieważ wykorzystują polecenia i procedury formatowania specyficzne dla poszczególnych producentów. Potrafią również przeprowadzać mapowanie uszkodzeń oraz analizę powierzchni dysku. Nie niszczące programy do formatowania Nie niszczące programy formatujące ogólnego zastosowania, działające z poziomu BIOS-u, takie jak „Calibrate" lub „SpinRite" nie są polecane w większości sytuacji, kiedy potrzebne jest rzeczywiste formatowanie niskopoziomowe. W programach tych występuje kilka ograniczeń i problemów, które zmniejszają ich efektywność. W niektórych przypadkach mogą one nawet spowodować problemy z obsługą uszkodzeń dysku. Programy te próbują bowiem przeprowadzać formatowanie niskiego poziomu ścieżka po ścieżce przy użyciu funkcji BIOS-u, tworząc jednocześnie kopię zapasową danych, a następnie odtwarzając te dane na sformatowanych w międzyczasie ścieżkach. Jednak nie wykonują one w rzeczywistości pełnego formatowania niskopoziomowego, ponieważ nawet nie próbują sformatować pierwszej ścieżki (cylinder O, głowica 0), ze względu na problemy z niektórymi rodzajami kontrolerów, które na pierwszej ścieżce przechowują ukryte informacje. Programy takie nie dokonują również mapowania uszkodzeń w sposób, w jaki robią to standardowe programy formatujące niskopoziomowo, a nawet mogą usunąć z nagłówków sektorów oznaczenia uszkodzeń wprowadzone podczas prawidłowego formatowania niskiego poziomu. Może to prowadzić do zapisywania danych w sektorach, które zostały pierwotnie oznaczone jako uszkodzone i spowodować unieważnienie gwarancji niektórych producentów. Innym problemem jest to, że programy te pracują jedynie na dyskach, które już
zostały sformatowane, oraz potrafią formatować tylko te dyski, które można formatować korzystając z funkcji BIOS-u. Rzeczywisty program formatujący niskopoziomowo pomija B10S systemu i wysyła polecenia bezpośrednio do kontrolera dysku. Dlatego właśnie wiele programów służących do formatowania niskiego poziomu jest zaprojektowanych specjalnie dla określonego kontrolera dysku. Nie jest możliwe w praktyce posiadanie jednego programu formatującego, który będzie działał w odniesieniu do wszystkich rodzajów kontrolerów. Wiele dysków zostało nieprawidłowo zdiagnozowanych jako uszkodzone tylko dlatego, że użyty został nieodpowiedni program do formatowania, który nie działał właściwie. Tworzenie partycji dyskowych. Podział dysku na partycje to proces definiowania obszarów dysku, do których system operacyjny będzie się odnosił jako do woluminów. Dla systemu operacyjnego takiego jak DOS wolumen jest obszarem dysku oznaczonym literą - na przykład dysk C to wolumen C, dysk D to wolumen D i tak dalej. Niektórzy myślą, że podziału na partycje dokonuje się tylko wtedy, gdy chce się podzielić dysk na więcej niż jeden wolumen. To nieporozumienie - na dysku trzeba określić partycje, nawet gdy będzie to tylko pojedyncza partycja C. Podczas tworzenia partycji dyskowych w pierwszym sektorze na dysku - cylinder O, głowica O, sektor l - zapisywany jest sektor startowy (boot sector) partycji głównej. Sektor ten zawiera dane opisujące partycje, czyli położenie cylindrów, głowic i sektorów początkowych oraz końcowych. Tablica partycji wskazuje również BIOS-owi, która z partycji jest partycja startową, a więc skąd należy załadować system operacyjny. DOS pozwala na zainstalowanie od l do 24 partycji na jednym komputerze. Liczba ta obejmuje wszystkie dyski zainstalowane w systemie, co oznacza, że możesz mieć 24 oddzielne dyski twarde z pojedynczymi partycjami, jeden dysk z 24 partycjami lub taką kombinację dysków i partycji, że suma wszystkich partycji nie przekracza 24. Jeżeli masz więcej niż 24 partycje, DOS i tak nie rozpozna ich więcej niż 24, mimo że mogą to robić inne systemy operacyjne. Ograniczeniem DOS-u jest fakt, że do nazywania wolumenów używa kolejnych liter alfabetu łacińskiego, który kończy się na literze „Z", czyli na wolumenie numer 24, jeśli liczenie rozpocząć od „C".
FDISK Program FDISK systemu DOS jest przyjętym standardem, jeśli chodzi o podział dysku na partycje. Utworzenie partycji przygotowuje sektor startowy dysku w taki sposób, aby program FORMAT systemu DOS mógł funkcjonować prawidłowo. Umożliwia ono również różnym systemom operacyjnym koegzystencję na jednym dysku. Jeżeli dysk jest podzielony na dwie lub więcej partycji, FDISK pokazuje jedynie dwie partycje DOS-u: partycje podstawową oraz partycje rozszerzoną. Partycja rozszerzona jest następnie dzielona na logiczne wolumeny DOS-u, które same są również partycjami. FDISK daje fałszywe wyobrażenie o tym, jak przebiega podział na partycje. FDISK informuje, że dysk podzielony na wolumeny C, D, E i F składa się z dwóch partycji, z których partycja podstawowa oznaczona jest jako C, a pojedyncza partycja rozszerzona zawiera logiczne wolumeny DOS-u o nazwach D, E i F. W rzeczywistej strukturze dysku każdy logiczny wolumen DOSu jest oddzielną partycja, opisaną w sektorze startowym partycji rozszerzonej. Każdy wolumen dyskowy stanowi oddzielną partycję na dysku, a partycję wskazują na siebie nawzajem, tworząc układ w rodzaju łańcucha.
Minimalnym rozmiarem partycji dla dowolnej wersji DOS-u jest jeden cylinder. Jednak program FDISK zamieszczony w wersji 4.0 i późniejszych DOS-u tworzy partycję o rozmiarze od l MB do 2 GB, podczas gdy wersje wcześniejsze tego systemu określały maksymalny rozmiar partycji na 32 MB. Aktualna wersja DOS-u (wersja 7.x, będąca podstawą systemu Windows 95 OSR 2), przy wykorzystaniu trybu FAT 32, obsługuje partycję o rozmiarach do 2 TB.
Nie udokumentowane funkcje programu FDISK FDISK jest programem o znacznych możliwościach, które w wersji 5.0 i późniejszych DOS-u jeszcze się rozszerzyły. Niestety, opcje te nie zostały nigdy udokumentowane w podręcznikach DOS-u i nadal pozostają nie opisane. Najważniejszym nie udokumentowanym parametrem programu FDISK jest parametr /MBR (Master Boot Record). Jego użycie sprawia, że FDISK ponownie zapisuje obszar kodu głównego sektora startowego, nie zmieniając przy tym tablic partycji. Uważaj: jeżeli dwa bajty sygnatury na końcu sektora 55AAh są zniszczone, tablice partycji zostaną ponownie zapisane. Nastąpienie takiego zdarzenia jest jednak bardzo mało prawdopodobne. W rzeczywistości, gdyby te dwa bajty były zniszczone, system nie pozwalałby się uruchomić i zachowywałby się, jak gdyby partycji w ogóle nie było. Parametr /MBR został prawdopodobnie stworzony po to, aby eliminować wirusy sektora startowego, które infekowały sektor startowy głównej partycji (cylinder O, głowica O, sektor l) dysku twardego. Aby wykorzystać tę opcję, wpisz po prostu: FDISK /MBR FDISK dokona wtedy powtórnego zapisu kodu sektora startowego, nie zmieniając w ogóle tablicy partycji. Nie powinno to spowodować żadnych problemów w normalnie funkcjonującym systemie, jednak na wszelki wypadek warto wcześniej utworzyć kopię zapasową tablicy partycji na dyskietce. Można to zrobić za pomocą następującego polecenia: MIRROR /PARTN Procedura ta wykorzystuje polecenie MIRROR do zapisania informacji z tablicy partycji w pliku o nazwie PAR.TNSAV.FIL, który należy zachować dla bezpieczeństwa na dyskietce. Aby odtworzyć pełną informację o tablicy partycji, w tym o wszystkich sektorach startowych partycji głównej i rozszerzonej, należy użyć następującej składni polecenia UNFORMAT: UNFORMAT /PARTN Procedura ta spowoduje, że program UNFORMAT najpierw poprosi o włożenie dyskietki zawierającej plik PARTNSAV.FIL, a następnie odtworzy ten plik na dysku twardym. Zwróć uwagę, że programy MIRROR i UNFORMAT zostały z systemu Windows 95 wyeliminowane, więc przeprowadzenie opisywanej czynności wymagać będzie zakupu pakietu „Norton Utiiities".
FDISK posiada również trzy inne nie udokumentowane parametry: /PRI:, /EXT: oraz /LOG :. Parametry te mogą być wykorzystane do tworzenia partycj i głównej i rozszerzonej, a także logicznych wolumenów DOS-u bezpośrednio z linii poleceń, zamiast używania menu programu FDISK. Opcja ta została zaprojektowana po to, by można było uruchamiać FDISK w plikach wsadowych i dokonywać automatycznego podziału na partycje. Parametrów tych używają niektórzy producenci komputerów (jeśli oczywiście o nich wiedzą!) podczas instalowania systemów na linii produkcyjnej. W innych zastosowaniach parametry te nie są zbyt przydatne zwykłemu użytkownikowi, a w rzeczywistości mogą być niebezpieczne!
Inne programy do tworzenia partycji Od czasu DOS-u 4.x zapotrzebowanie na inne narzędzia służące do tworzenia partycji na dysku jest bardzo małe, z wyjątkiem szczególnych przypadków. Jeżeli system sprawia problemy, podsuwające ci pomysł użycia jakiegoś alternatywnego narzędzia do tworzenia partycji, zamiast niego radzę zainstalować nowszą wersję DOS-u. Używanie niestandardowych programów do podziału dysku na partycje naraża dane w tych partycjach na niebezpieczeństwo oraz sprawia, że odzyskanie utraconych z nich danych może być skrajnie trudne. Przyczyną, dla której kiedykolwiek istniały inne niż FDISK narzędzia do tworzenia partycji, było ograniczenie maksymalnego rozmiaru partycji w starszych wersjach DOS-u: do 16 MB w DOS-ie 2.x i 32 MB w DOS-ie 3.x. Limity te były kłopotliwe dla posiadaczy dysków o wiele większych niż 32 MB, gdyż musieli oni dzielić dysk na wiele partycji, aby móc z niego korzystać. Wersje DOS-u wcześniejsze od 3.3 nie potrafiły nawet utworzyć na twardym dysku więcej niż jednej, dostępnej dla siebie partycji. Jeżeli więc ktoś miał dysk wielkości 120 MB i używał DOS-u w wersji wcześniejszej niż 3.3, mógł korzystać tylko z 32-megabajtowej partycji C tego dysku. Aby przezwyciężyć te ograniczenia, kilka firm stworzyło ulepszone programy do tworzenia partycji, których można było używać zamiast programu FDISK. Programy te tworzą wiele partycji oraz partycje większe niż 32 MB na dyskach rozpoznawanych przez DOS. Zawierają one program formatowania wysokiego poziomu, gdyż program FORMAT z wersji DOS-u wcześniejszych niż 3.3 mógł formatować partycje o rozmiarach nie przekraczających 32 MB. „Disk Manager" firmy Ontrackjest chyba najbardziej znanym tego typu narzędziem do tworzenia partycji. Programy tego rodzaju zawierają także funkcje formatowania nisko-poziomowego, tak więc jeden z nich wystarczy do przeprowadzenia pełnej instalacji dysku twardego. W programach tych znajdują się nawet programowe sterowniki dysków, dzięki czemu można wykorzystać całą powierzchnię dysku, nawet wtedy, gdy tablica typów dysków w systemowym BIOS-ie nie zawiera pozycji odpowiadającej instalowanemu dyskowi. Wielu producentów dysków i komputerów dołączało do swoich produktów niestandardowe programy do tworzenia partycji i formatowania, co sprawiło, że wiele osób uznało, iż muszą używać tych programów, aby móc korzystać z dysku. Jednak w większości przypadków dostępne są lepsze rozwiązania. Niestandardowy sposób podziału na partycje lub formatowania może spowodować więcej problemów, niż ich rozwiązać.
Na przykład firma Seagate do swoich dysków większych niż 32 MB dodawała program „Disk Manager" firmy Ontrack. Jednym z zastosowań tego programu jest przeprowadzenie niskopoziomowego formatowania dysku, co „Disk Manager" robi dobrze i do czego zdecydowanie go polecam. Jednak zalecam również, o ile to możliwe, unikanie korzystania z jego funkcji tworzenia partycji oraz formatowania wysokiego poziomu, a posługiwanie się w tym celu DOS-owymi programami FDISK oraz FORMAT. Jeśli do utworzenia partycji i formatowania wysokopoziomowego dysku użyjesz programów innych niż standardowe FDISK i FORMAT, ustawienia dysku nie będą standardowe - czyli będą inne niż dla „czystego" DOS-u. Różnica ta może być przyczyną problemów z programami narzędziowymi, które buforują zapis i odczyt danych na dysku, testują dysk, sprawdzają przeplot lub służą do odtwarzania danych i programów, a które zostały napisane z myślą o współpracy ze standardową strukturą dysku w DOS-ie. W wielu sytuacjach, których dzięki standardowemu formatowaniu można uniknąć, niestandardowe sformatowanie dysku może spowodować utratę danych i uczynić ich odzyskanie niemożliwym. Do tworzenia partycji i wysokopoziomowego formatowania dysku twardego warto używać wyłącznie standardowych programów DOS-u: FDISK i FORMAT. Wykorzystanie innego oprogramowania tego typu w celu niestandardowego skonfigurowania dysku może spowodować, że niektóre programy, uzyskujące dostęp do dysku z pominięciem DOS-u, nie zrozumieją ustawień właściwie i będą zapisywać dane w nieodpowiednich miejscach. Przykładem programu uzyskującego dostęp do dysku z pominięciem DOS-u jest Windows 95, w którego Panelu sterowania włączona jest opcja 32-bitowego dostępu do dysku. Szczególnie niebezpieczne jest używanie takich programów do tworzenia partycji, które zamiast korzystać z ustawień tablicy dysków BIOS-u przyjmują własne ustawienia. Rozważ następujący scenariusz - katastrofę. Przypuśćmy, że masz dysk Seagate ST-4096, w którym znajdują się 1024 cylindry i 9 głowic i który wymaga, aby podczas zapisu danych kontroler nigdy nie wykonywał na cylindrach modyfikacji zwanej wstępną kompensacją zapisu. Niektóre dyski wymagają przeprowadzenia wstępnej kompensacji wewnętrznych cylindrów, aby wyrównać zjawisko przesunięcia szczytów sygnału, które pojawia się w związku z większą gęstością danych w mniejszych, wewnętrznych cylindrach. Dysk ST-4096 kompensuje ten efekt wewnętrznie i dlatego kompensacja ze strony kontrolera nie jest potrzebna. Teraz załóżmy, że instalujesz ten dysk w komputerze IBM AT, w którego tablicy dysków w BIOS-ie nie ma pozycji odpowiadającej Twojemu dyskowi. Najbardziej zbliżonym typem, jaki możesz wybrać, jest typ 18, który pozwala wykorzystać tylko 977 cylindrów i 7 głowic - 56,77 MB zamiast pełnych 76,5 MB twojego dysku. Jeśli jest to jeden ze starszych komputerów, z BIOS-em oznaczonym datą 01/10/84 (data w BIOS-ach jest zwykle podawana w formacie amerykańskim [miesiąc/dzień/rok] przyp. tłum.), sytuacja jest nawet gorsza, ponieważ tablica dysków kończy się na typie 14. W tym przypadku najlepszym wyborem będzie typ 12, dający dostęp do 855 cylindrów i 7 głowic, a więc tylko do 49,68 MB z dysku o pojemności 76,5 MB. Większość komputerów IBM-kompatybilnych posiada bardziej kompletną tablicę dysków i być może znajdzie się pośród nich typ dokładnie odpowiadający Twojemu dyskowi, co pozwoli na wykorzystanie pełnych 76,5 MB bez żadnych problemów. Na przykład, w większości BIOS-ów zgodnych z BIOS-em Phoenix można wybrać typ 35, który całkowicie odpowiada typowi dysku z przykładu.
Teraz przypuśćmy, że nie zadowala cię wykorzystywanie tylko 50 lub 57 MB zamiast możliwych 76,5 MB. Korzystasz więc z dostarczonego wraz z dyskiem programu do tworzenia partycji o nazwie „SuperPartition" i za jego pomocą formatujesz dysk nisko-poziomowo. Następnie używasz tego programu, w celu ominięcia ustawień dla typu 18 lub typu 12 z tablicy dysków. Program poucza, że należy utworzyć bardzo małą partycję C (wielkości l MB), a z pozostałej części (75,5 MB) utworzyć partycję D. Taki podział przekracza limit wielkości partycji, który dla wersji 3.3 DOS-u wynosi 32 MB - a załóżmy, że taka jest zainstalowana na przykładowym komputerze. Nawet więc jeśli masz komputer zgodny z IBM, który nie wymaga używania niestandardowych typów dysków, to w celu utworzenia partycji większej niż standardowe 32 MB DOS-u 3.3 i tak potrzebny byłby ci inny niż standardowy program do tworzenia partycji. Tego samego programu używasz do wysokopoziomowego sformatowania partycji C i D, jako że programy wersji 3.3 DOS-u działają tylko na partycjach mniejszych niż 32 MB. Większość niestandardowych programów do określania partycji tworzy specjalny plik programu obsługi, który jest instalowany w pliku CONFIG.SYS przy użyciu polecenia DEVICE. Po uruchomieniu systemu z partycji C i załadowaniu tego programu obsługi, partycja D o wielkości 75,5 MB jest w pełni dostępna. Tymczasem przychodzi nieświadomy niczego użytkownik, który zawsze uruchamia system ze swojej dyskietki startowej. Po wystartowaniu systemu z dyskietki próbuje on dostać się do partycji D. Niezależnie od wersji DOS-u używanej do startowania z dyskietki, wygląda na to, że partycja D zniknęła. Każda próba dostępu do niej kończy się komunikatem błędu invaiid drive specification. Żadna standardowa wersja DOS-u nie jest bowiem w stanie rozpoznać w tak szczególny sposób utworzonej partycji, jeśli wcześniej nie zostanie załadowany program obsługi. Próba odzyskania danych przez tego użytkownika przy użyciu programów narzędziowych w rodzaju „Norton Utiiities" lub „PC Tools" kończy się niepowodzeniem, ponieważ programy te interpretują dysk jako posiadający 977 cylindrów i 7 głowic (typ 18) lub 855 cylindrów i 7 głowic (typ 12). W rzeczywistości, gdy programy te zaczną naprawiać to, co wygląda na uszkodzenie tablicy partycji, zniszczą dane na niewidocznej dla nich partycji D. Myśląc, że być może to jakiś fizyczny problem z dyskiem, nieświadomy użytkownik restartuje system i uruchamia program „Advanced Diagnostics", aby przetestować dysk twardy. Ponieważ „Advanced Diagnostics" zawiera własny kod startowy i nie korzysta ze standardowego kodu DOS-u, nie sprawdza on podziału na partycje, lecz w celu określenia pojemności dysku korzysta z tablicy dysków w BIOS-ie. Widzi więc dysk, mający jedynie 977 lub 855 cylindrów (na co wskazują ustawienia typu 18 lub 12) oraz 7 głowic. Użytkownik uruchamia testy „Advanced Diagnostics", które wykorzystują ostatni cylinder dysku jako cylinder testowy dla diagnozowania odczytu i zapisu. Cylinder ten jest więc następnie zapisywany przez testy diagnostyczne, które dysk przechodzi pomyślnie, ponieważ fizycznie nie ma z nim przecież żadnych problemów. Nieświadomy niczego użytkownik właśnie wymazał dane z partycji D, które akurat znajdowały się w cylindrze 976 przy ustawieniu typu 18 lub cylindrze 854 dla typu 12. Gdyby dysk został sformatowany przy użyciu programu FDISK, ostatni cylinder wskazany przez tablicę dysków w BIOS-ie byłby pozostawiony poza wszelkimi partycjami, zarezerwowany właśnie po to, by można było przeprowadzać testy diagnostyczne bez uszkadzania danych.
Poza tak katastroficznym scenariuszem jak opisany powyżej, niestandardowe sposoby podziału na partycje i formatowania mogą potencjalnie być przyczyną między innymi następujących problemów: • Problemów z wykorzystaniem opcji 32-bitowego dostępu do dysku w systemie Windows, umożliwiającej ominięcie BIOS-u, w celu uzyskania szybszego dostępu do dysku w trybie rozszerzonym 386 (Enhanced Modę 386). • Utraty danych w systemach OS/2, UN1X, XENIX, Novell Advanced NetWare i innych systemach operacyjnych poza DOS-em, które nie rozpoznają dysku lub niestandardowych partycji. • Trudności z aktualizacją systemu ze starej do nowszej wersji DOS-u. • Trudności z instalowaniem na dysku innych systemów operacyjnych, jak na przykład OS/2. • Utraty danych przy wykorzystaniu narzędzia formatowania niskiego poziomu do przeprowadzenia testowania przeplotu. Obszar testowy dla testu przeplotu to cylinder diagnostyczny, który na dyskach sformatowanych przez program „Disk Manager" zawiera dane. • Utraty danych przez przypadkowe usunięcie lub zapisanie czymś innym pliku programu obsługi. Spowoduje to, że partycja D zniknie po kolejnym uruchomieniu systemu. • Utrudnione lub niemożliwe odtworzenie danych, ponieważ niestandardowe partycje nie spełniają wytycznych określonych przez Microsoft i IBM i brak dokumentacji dotyczącej ich struktury. Rozmiary i położenie tablic alokacji plików oraz katalogu głównego nie są standardowe, a więc szczegółowe wykresy w tej książce (prawidłowe dla partycji stworzonych przez FDISK) nie są odpowiednie dla niestandardowych partycji. Listę można by kontynuować jeszcze długo... Jeśli programy narzędziowe tego typu są wykorzystywane tylko do formatowania niskopoziomowego, to nie powodują żadnych problemów. Trudności sprawiają natomiast: zmiana standardowego typu dysku, tworzenie partycji oraz operacje formatowania wysokiego poziomu wykonywane za pomocą tych programów. Jeżeli uważasz integralność danych za rzecz ważną, trzymaj się następujących reguł dotyczących obsługi i podziału dysku na partycje: • Każdy dysk twardy musi być prawidłowo obsługiwany przez BIOS w pamięci ROM, bez programowej zmiany jego typu. Jeżeli w systemowej tablicy dysków nie ma typu, który w pełni wykorzystuje pojemność dysku, pogódź się z tym ograniczeniem, zaktualizuj wersję BIOS-u (najlepiej do takiej, w której użytkownik sam może zdefiniować ustawienia dla typu dysku) lub wykorzystaj do obsługi dysku kontroler dysku mający własny BIOS. • Do tworzenia partycji na twardym dysku używaj wyłącznie programu FDISK. Jeżeli chcesz mieć partycje większe niż 32 MB, użyj DOS-u w wersji 4.0 lub nowszej.
Formatowanie wysokiego poziomu (na poziomie systemu operacyjnego) Ostatnim etapem programowego przygotowania dysku twardego do użycia jest formatowanie wysokopoziomowe DOS-u. Podstawową funkcją tego formatowania jest utworzenie na dysku tablicy alokacji plików (FAT) oraz systemu katalogów, tak by DOS mógł zarządzać plikami. Zazwyczaj formatowanie wysokiego poziomu wykonuje się przy użyciu standardowego dla DOS-u programu FORMAT przy użyciu następującej składni: FORMAT C: /S /V Polecenie to powoduje wysokopoziomowe sformatowanie dysku C (lub też partycji C na dysku o wielu partycjach), umieszczenie w pierwszej części partycji ukrytych plików systemowych i wreszcie wyświetlenie prośby o podanie etykiety wolumenu, która zostanie zapisana na dysku. Program formatowania wysokiego poziomu wykonuje następujące funkcje i procedury: 1. Przegląda dysk (tylko odczytując) w poszukiwaniu ścieżek i sektorów oznaczonych jako uszkodzone podczas formatowania niskiego poziomu i odnotowuje te ścieżki jako niemożliwe do odczytania. 2. Umieszcza głowicę ponownie w pierwszym cylindrze partycji, w pozycji: głowica l, sektor l i zapisuje tam sektor startowy wolumenu DOS-u. 3. Zapisuje tablicę alokacji plików (FAT) w pozycji: głowica l, sektor 2. Tuż za pierwszym FAT-em zapisuje jego drugą kopię. Tablice te są zasadniczo puste, z wyjątkiem oznaczeń uszkodzonych sektorów, które informują o obszarach dysku określonych jako niemożliwe do odczytania podczas przeglądania oznaczonych wcześniej uszkodzeń. 4. Tworzy pusty katalog główny. 5. Jeżeli określono parametr /s, kopiuje na dysk pliki systemowe (IBMBIO.COM i 1BMDOS.COM lub IO.SYS i MSDOS.SYS - w zależności od używanej wersji DOS-u) oraz plik COMMAND.COM (w tej kolejności). 5. Jeżeli określono parametrów, prosi użytkownika o podanie etykiety wolumenu, która jest zapisywana w czwartym pliku katalogu głównego. Po tak przeprowadzonym formatowaniu DOS może już używać dysku do zapisywania i odczytywania plików, a dysk ten jest również dyskiem startowym. Polecenie FORMAT można wywołać z poziomu Windows 95 za pomocą Eksploratora Windows nawet w odniesieniu do dysków twardych, o ile nie są otwarte żadne pliki. Nie można jednak w ten sposób sformatować dysku, na którym zainstalowany jest Windows 95. Podczas pierwszej fazy formatowania wysokiego poziomu wykonywany jest przegląd oznaczonych już uszkodzeń. Defekty oznaczone przez operację formatowania niskiego poziomu są podczas tego sprawdzania przedstawiane jako sektory lub ścieżki, których nie można odczytać. Kiedy program formatujący wysokopoziomowo napotka jeden z tych obszarów, automatycznie przeprowadza do pięciu prób odczytania tych ścieżek lub sektorów. Jeśli obszar został oznaczony jako nieczytelny przez program formatowania niskopoziomowego, wszystkie te próby kończą się niepowodzeniem. Po pięciu próbach program FORMAT opuszcza taką ścieżkę lub sektor i przechodzi do następnej. Obszary, które nie zostały odczytane w wyniku pięciu kolejnych prób,
są odnotowywane w tablicy alokacji plików jako uszkodzone. DOS w wersji 3.3 i wcześniejszych oznaczał jako uszkodzoną całą ścieżkę w tablicy FAT, nawet jeśli podczas formatowania niskiego poziomu został oznaczony jako uszkodzony tylko jeden sektor. DOS 4.0 i jego późniejsze wersje sprawdzają oddzielnie każdy klaster na ścieżce i odzyskują te z nich, które nie zawierają uszkodzonych sektorów. Ponieważ jednak większość programów do formatowania niskiego poziomu oznacza jako uszkodzone nie pojedyncze sektory zawierające usterki, lecz wszystkie sektory znajdujące się na ścieżce zawierającej uszkodzony sektor, to efekt używania DOS-u 3.3 i 4.0 jest w większości przypadków taki sam: wszystkie klastry w sektorach takiej ścieżki są w tablicy alokacji oznaczane jako uszkodzone. Niektóre programy do formatowania niskiego poziomu oznaczają jako uszkodzony tylko pojedynczy sektor w ścieżce, a nie całą zawierającą go ścieżkę. Dotyczy to takich programów dla IBM PS/2, jak „IBM PS/2 Advanced Diagnostics" lub „IBM PS/2 Reference". W tym przypadku formatowanie wysokiego poziomu z wykorzystaniem wersji 4.0 DOS-u lub późniejszych zmniejsza liczbę traconych bajtów, ponieważ jako uszkodzone oznaczane są w tablicy FAT jedynie klastry zawierające sektory z błędami. DOS 4.0 i jego późniejsze wersje wyświetlają komunikat „Attempting to recover allocation unit x" (w którym x jest numerem odpowiedniego klastra) oraz ustalają, czy w tablicy FAT powinien być oznaczony jako uszkodzony pojedynczy klaster, czy też wszystkie klastry znajdujące się na ścieżce. Jeżeli zarówno kontroler, jak i program formatowania niskopoziomowego jednocześnie obsługują zastępowanie sektorów i ścieżek, program formatujący wysokopoziomowo będzie widział dysk jako zupełnie pozbawiony uszkodzeń, gdyż wszystkie sektory z usterkami zostaną zastąpione sektorami zapasowymi bez usterek. Jeżeli dysk został prawidłowo sformatowany niskopoziomowo, liczba bajtów w sektorach uszkodzonych jest taka sama przed i po formatowaniu wysokiego poziomu. Jeżeli liczba ta ulegnie zmianie po przeprowadzeniu kolejnego formatowania wysokopozio-mowego (będzie ich mniej lub wcale), oznacza to, że formatowanie niskopoziomowe nie zostało przeprowadzone poprawnie, co znaczy, że uszkodzenia producenta nie zostały prawidłowo oznaczone lub też do oznaczania uszkodzonych klastrów użyto jednego z narzędzi w rodzaju „Norton Utiiities", „Mace" czy „PC Tools". Narzędzia te nie potrafią oznaczać sektorów ani ścieżek w sposób, w jaki robią to programy formatujące niskopoziomowo. Wykonane przez nie oznaczenia uszkodzonych sektorów są przechowywane jedynie w tablicy alokacji plików i usuwane z niej podczas następnego formatowania wysokiego poziomu. Oznaczenia uszkodzeń dokonane przez program formatujący niskopoziomowo pojawiają się konsekwentnie jako uszkodzone bajty podczas każdego formatowania wysokopoziomowego, niezależnie od tego, ile razy będzie ono przeprowadzane. Jedynie programy formatujące niskopoziomowo oraz narzędzia analizy powierzchni są w stanie prawidłowo oznaczyć uszkodzenia dysku. Wszelkie inne programy dokonują tylko chwilowych oznaczeń uszkodzonych klastrów w tablicy alokacji plików. Ten rodzaj oznaczeń można zaakceptować tymczasowo, ale jeżeli na dysku pojawią się nowe uszkodzone obszary, warto przeprowadzić nowe formatowanie niskopoziomowe dysku i wszystkie te obszary oznaczyć ręcznie lub uruchomić analizę powierzchni. Wszystkie wprowadzone w ten sposób oznaczenia na pewno będą trwałe.
Naprawa dysków twardych i rozwiązywanie problemów z nimi
związanych Jeżeli jakiś problem z dyskiem wystąpi w jego zaplombowanym wnętrzu, naprawa jest zazwyczaj niewykonalna. Jeżeli zaś usterka pojawi się na płytce układu logicznego, można cały ten układ łatwo wymienić na nowy lub naprawiony, płacąc o wiele mniej niż za wymianę całego dysku. Problemy typu sprzętowego stanowią jednak mniejszość w porównaniu z problemami związanymi z oprogramowaniem, które mogą być rozwiązane przez ponowne formatowanie niskiego poziomu i mapowanie uszkodzeń. Problemy programowe - tzw. „miękkie" -charakteryzują się tym, że dysk pracuje i brzmi normalnie, jednak podczas jego pracy pojawiają się różne błędy odczytu i zapisu. Problemy sprzętowe - tzw. „twarde" - są mechaniczne, na przykład gdy dysk brzmi tak, jak gdyby w środku miał luźne kulki. Ciągłe odgłosy tarcia albo zgrzytania wydobywające się z dysku oraz brak możliwości zapisu lub odczytu również wskazują, że zaistniały problem jest natury sprzętowej. W takich przypadkach mało jest prawdopodobne, aby formatowanie niskiego poziomu poprawiło działanie dysku. Jeżeli pojawi się problem sprzętowy, najpierw warto wymienić układ logiczny. Taką naprawę można wykonać samodzielnie; jeśli się ona powiedzie, będzie można odzyskać dane z dysku. Jeżeli wymiana układu logicznego nie rozwiąże problemu, skontaktuj się z producentem lub z wyspecjalizowanym serwisem naprawczym, który ma odpowiednie warunki do naprawy dysków twardych.
Kody błędów sprzętowych l7xx, 104xx i 210xx Jeśli po włączeniu zasilania w podsystemie dysku twardego wystąpi jakieś uszkodzenie, wewnętrzny test przeprowadzany po włączeniu komputera (POST Power On SelfTest) wykryje ten problem i zawiadomi o nim wyświetlając komunikat błędu. Błędy l7xx, 104xx i 210xx wykryte podczas tego testu lub po uruchomieniu programu „Advanced Diagnostics" wskazują na problemy z dyskami twardymi, kontrolerami lub kablami. Kody błędów l7xx dotyczą dysków i kontrolerów z interfejsem ST-506/412, kody 104xx odnoszą się do dysków i kontrolerów ESDI. zaś błędy 210xx - do dysków i kontrolerów SCSI. Tabela 16.5 przedstawia spis tych komunikatów błędów oraz ich znaczeń. Tabela 16.5. Kody błędów cliii diagnostyki dysków twardych i kontrolerów
Kody błędów dla dysków i kontrolerów ST-506/412 Błąd 1701 1702 1703 1704 1705 1706 1707 1708 1709 1710 1711
Opis Ogólny błąd dysku twardego podczas testu POST Błąd przekroczenia czasu operacji dysku/kontrolera Błąd wyszukiwania na dysku Uszkodzony kontroler Sektor na dysku nie odnaleziony Błąd zapisu Błąd ścieżki O na dysku Błąd wyboru głowicy Błąd kodu korekcji błędów (ECC) Przepełnienie buforu sektora Nieprawidłowe oznaczenie adresu cd. na następnej strome
Tabela 16.5. cd. Kody błędów dla diagnostyki dysków twardych i kontrolerów
Kody błędów dla dysków i kontrolerów SCSI Błąd
Opis
096xxxx
Błędy kontrolera SCSI (32-bitowego) z cache
112xxxx
Błędy kontrolera SCSI (16-bitowego) bez cache
113xxxx
Błędy kontrolera SCSI na płycie głównej (l 6-bitowego)
21 Oxxxx Błędy dysku twardego SCSI Pierwszy x w xxxx oznacza numer ID SCSI. Drugi x w xxxx oznacza numer jednostki logicznej (zazwyczaj 0). Trzeci x w xxxx oznacza numer gniazda w kontrolerze. Czwarty x w xxxx to kod literowy oznaczający pojemność dysku. W większości przypadków błąd wyszukiwania wskazuje, że dysk nie odpowiada na polecenia kontrolera. Usterka ta zazwyczaj jest spowodowana przez jeden z poniższych problemów: • nieprawidłowe ustawienie zworek wyboru dysku, • luźny, uszkodzony lub odwrotnie włożony kabel kontrolny, • wyjęty lub uszkodzony kabel zasilania, • spięcie pomiędzy głowicami i talerzami dysku, • uszkodzone zasilanie. Najbardziej prawdopodobnymi przyczynami błędów odczytu cylindra diagnostycznego są: • nieprawidłowo ustawiony typ dysku, • luźny, uszkodzony lub odwrotnie włożony kabel danych, • błędne odczytywanie ścieżek spowodowane zmianami temperaturowymi rozmiarów talerzy dysku. Sposoby usunięcia większości tych problemów są oczywiste. Na przykład, jeżeli nieprawidłowo ustawione są zworki wyboru dysku, należy je przełożyć. Luźno do gniazda włożony kabel można mocniej docisnąć. Uszkodzony zasilacz trzeba wymienić na nowy, itp. Jeżeli problem dotyczy temperatury, to warto pamiętać, że dysk najczęściej będzie w stanie odczytać dane w takiej samej temperaturze, w jakiej zostały one zapisane. A więc jeżeli dysk jest zbyt zimny, pozwól mu się przez chwilę nagrzać i następnie uruchom komputer ponownie, a jeżeli był zbyt nagrzany, pozwól mu przed próbą ponownego odczytu ostygnąć.
Rozdział 17.
Napędy CD-ROM Niniejszy rozdział przybliża sposób funkcjonowania napędów CD-ROM, przedstawia najważniejsze formaty zapisu informacji na płytach CD-ROM, a także opisuje znaczenie różnych charakterystyk typowego napędu CD-ROM związanych z wydajnością jego działania. Przedstawia sposób wybierania napędu odpowiedniego do modernizacji systemu oraz przeprowadza przez kolejne etapy instalacji napędu: instalację karty interfejsu CD-ROM-u, samego napędu oraz oprogramowania umożliwiającego komunikację napędu z systemem. W rozdziale tym przedstawione są również najnowsze technologie CD, takie jak CD-R, CD-E oraz DVD. Szczegółowy opis technologii CD-R można znaleźć również w następnym rozdziale, pt. „Urządzenia pamięci masowej", ze względu na to, że większości użytkowników służy ona głównie jako wygodny sposób składowania i archiwowania praktycznie nieograniczonej ilości danych.
Czym jest CD-ROM? W ciągu kilku chwil - wkładając płytę kompaktową do napędu CD-ROM komputera -uzyskujemy dziś dostęp do informacji, które jeszcze kilka lat temu zbierać trzeba było tygodniami. Nauka, medycyna, prawo, informacje o przedsiębiorstwach, materiały edukacyjne i wszelkie wyobrażalne formy ludzkiej twórczości oraz pędu za wiedzą trafiają dziś na pokryte aluminium, pięciocalowe dyski nazwane płytami CD-ROM (Compact Disk - Read Oniy Memory, czyli płyty kompaktowe - pamięć jedynie do odczytu). Płyta CD-ROM jest medium służącym do przenoszenia informacji tylko do odczytu, na którym zapisane może być do 682 MB danych (około 333 000 strony tekstu), 74 minuty dźwięków hi-fi (czyli dźwięków o wysokiej wierności odczytu w stosunku do oryginału) lub dowolna kombinacja danych oraz dźwięków. Płyta CD-ROM jest bardzo podobna do muzycznej płyty kompaktowej (płyty audio CD) i, o ile zapisana jest na niej muzyka, może być z powodzeniem odtwarzana w klasycznym odtwarzaczu płyt kompaktowych. Jeśli jednak ścieżki audio nie ma pomiędzy danymi znajdującymi się na płycie CD-ROM, to podczas odtwarzania płyty słychać będzie jedynie trzaski i piski (więcej informacji na ten temat znajdziesz w punkcie dotyczącym formatu CD+ w dalszej części niniejszego rozdziału). Czas dostępu do danych znajdujących się na płycie CD-ROM jest dużo krótszy niż do danych zapisanych na dyskietce, ale znacznie dłuższy niż do danych zapisanych na dysku twardym. Termin CD-ROM odnosi się zarówno do napędów, jak i do odczytywanych przez nie dysków.
W ciągu całego 1988 roku wydanych zostało zaledwie kilka dysków CD-ROM. Dziś na rynku dostępne są tysiące tytułów z danymi oraz programami dotyczącymi wszystkiego: od światowej statystyki rolnictwa począwszy, a skończywszy na zabawach dla dzieci w wieku przedszkolnym. Własne, przeznaczone do użytku wewnętrznego CD-ROM-y produkuje również wiele firm, biur oraz urzędów.
Krótka historia CD-ROM-u W roku 1978 firmy Philips oraz Sony połączyły swe wysiłki w celu wyprodukowania płyty, która dziś nazywana jest płytą kompaktową lub audio CD. Firma Philips w tamtym czasie sprzedawała już odtwarzacze dysków laserowych, a Sony dysponowała doświadczeniami zebranymi podczas dekady badań nad cyfrowym sposobem zapisu informacji. Przygotowane do konkurencji wynikającej z wprowadzenia potencjalnie niezgodnych formatów audio dysków laserowych, przedsiębiorstwa te doszły do porozumienia i sformułowały zasady wspólnej technologii audio. Firma Sony optowała za dyskiem 12-calowym, podczas gdy Philips chciała wykorzystywać dyski o mniejszych rozmiarach, zwłaszcza gdy okazało się, że na 12-calowym dysku pomieścić można aż 12 godzin muzyki. Do roku 1982 spółki uzgodniły standard obejmujący specyfikacje dotyczące zapisu, sposobu samplowania (próbkowania) i, przede wszystkim, obowiązującego do dziś formatu dysku: 4,72 cala. Dokładnie rzecz ujmując, średnica dysku wynosi 120 mm, otwór w środku dysku ma 15 mm średnicy, a grubość dysku wynosi 1,2 mm. Legenda głosi, że rozmiar ten został wybrany dlatego, iż umożliwiał pomieszczenie na płycie Dziewiątej Symfonii Ludwiga van Beethovena. W latach 80-tych, już w trakcie współpracy, Sony i Philips ustaliły dodatkowe specyfikacje dotyczące zastosowań technologii CD w zakresie danych cyfrowych. Zalecenia te są podstawą dzisiejszej technologii napędów CD-ROM. A dyski będące wynikiem kompromisu pomiędzy współczynnikiem kształtu i największą kiedykolwiek zarejestrowaną symfonią, producenci oprogramowania zapełniają dziś wszelkiego sortu informacjami.
Technologia CD Mimo że dyski CD-ROM z danymi wyglądają identycznie jak muzyczne płyty kompaktowe, można na nich zapisywać nie tylko dźwięki, lecz także dane. Nie tylko jednak nośniki są podobne, lecz również zewnętrzne napędy CD-ROM przypominają odtwarzacze płyt kompaktowych. I tak samo, jak w przypadku płyty kompaktowej, przed korzystaniem z płyty CD-ROM, należy włożyć ją do napędu, a po zakończeniu korzystania z niej można ją stamtąd wysunąć. Mechanika obu rodzajów napędów oparta jest bowiem na tych samych zasadach. Natomiast same dyski, mające 120 mm średnicy, zrobione są z warstw poliwęglanów pokrytych cienką warstwą metalu, zwykle stopów aluminium. Warstwa aluminiowa jest tą częścią dysku, na której zapisane są informacje odczytywane następnie przez napęd CD-ROM. Cienka powłoka aluminiowa pokryta jest plastycznym poliwęglanem chroniącym znajdujące się na dysku dane. Z wierzchniej strony dysku zwykle umieszczany jest nadruk lub etykieta, a dane odczytywane są tylko od spodniej strony dysku. CDROM-y są bowiem jednostronne. Nośniki CD-ROM powinno się traktować równie ostrożnie jak negatywy
fotograficzne. Czytnik płyt CD-ROM jest przyrządem optycznym, którego jakość odczytu obniża się w przypadku zabrudzenia lub zadrapania powierzchni płyty. Jeśli przed włożeniem do napędu dysk umieszcza się w specjalnej kasetce (caddy) - dzięki której ograniczana jest możliwość uszkodzenia dysku - warto zaopatrzyć się w odpowiednią liczbę owych kasetek, aby zmniejszyć (lub wyeliminować) potrzebę przekładania dysków pomiędzy kasetkami. Masowa produkcja CD-ROM-ów Mimo że do wytrawiania danych na powierzchni dysku pierwotnego (matrycowego) używany jest laser, technika ta byłaby niepraktyczna w przypadku reprodukcji setek czy tysięcy kopii. Wyprodukowanie jednego dysku matrycowego trwa często ponad pół godziny. Poza tym dyski te robione są z materiałów mniej trwałych niż używane do produkcji dysków dla użytkownika końcowego. W przypadku edycji limitowanych, płyta będąca matrycą pokrywana jest w trakcie procesu przypominającego galwanizację przez warstwę metalu. Po zdjęciu tej warstwy, negatyw dysku wzorcowego używany jest do tworzenia kopii użytkowych. Ten sposób produkcji jest skuteczny w przypadku niewielkich ilości dysków - w końcu bowiem negatyw dysku matrycowego ulega starciu. Do produkcji znacznych ilości dysków wykorzystuje się następujący, trzyetapowy proces: 1. Dysk pierwotny, uzyskiwany w procesie wytrawiania. Jest platerowany, w wyniku czego otrzymywana jest metalowa matryca będąca negatywową kopią dysku pierwotnego. 2. Matryca ta jest następnie używana do tworzenia, już z bardziej elastycznego metalu, wielu jej kopii - czyli wielu matryc wtórnych. 3. Z tych wielu matryc wtórnych produkowana jest jeszcze większa liczba matryc roboczych, z których dopiero powstają płyty, rozprowadzane następnie do użytkowników końcowych. Technika ta pozwala na produkowanie, na podstawie wielu wtórnych kopii pierwotnego dysku, jeszcze większej liczby matryc przy zachowaniu oryginalnej jakości pierwszego zapisu. Dzięki temu, podczas pośrednich etapów produkcji masowej nie trzeba korzystać z bardzo odpornych i drogich materiałów. Płyty CD, które kupujemy w sklepach, składają się z warstwy poliwęglanu (w niej wytłoczone są informacje) pokrytej warstwą aluminium oraz warstwą ochronnego plastyku. Dzięki pokryciu cienką warstwą aluminium, rowki oraz gładzie, wytłoczone w powierzchni poliwęglanu, w różny sposób uginają wiązkę światła laserowego, co napęd CD-ROM odczytuje jako informacje. Przedstawiony proces produkcji masowej płyt jest taki sam zarówno dla płyt kompaktowych zawierających dane (data CD), jak i muzykę (audio CD). Zapisane w ten sposób informacje odczytywane są przy wykorzystaniu zjawiska odbijania światła laserowego o niskiej energii od cienkiej warstwy aluminiowej. Receptor wiązki świetlnej zauważa, kiedy jest ona odbijana mocno, kiedy jest rozpraszana, a kiedy w ogóle jej brak. Rozproszenie lub nieobecność światła są powodowane przez zagłębienia, czyli rowki wyciśnięte w płycie CD (w warstwie poliwęglanu). Silne odbicie światła wskazuje na brak rowka, czyli na gładź. Receptory światła umieszczone w odtwarzaczu zbierają odbite od powierzchni dysku i rozproszone impulsy świetlne, a następnie przesyłająje dalej, do mikroprocesorów, które otrzymane w ten sposób wzory zamieniają z powrotem na
dane lub dźwięk. Głębokość poszczególnych rowków wynosi 0,12 mikrona, a szerokość 0,6 mikrona. Są one umieszczone w spiralnej ścieżce o rozstawie 1,6 mikrona pomiędzy kolejnymi obrotami, co odpowiada gęstości blisko 16000 ścieżek traktów na cal! Rowki i gładzie mają od 0,9 do 3,3 mikrona długości. Ścieżka rozpoczyna się przy wewnętrznej krawędzi dysku i kończy w odległości 5 mm od jego krawędzi zewnętrznej. Ciągnie się ona spiralnie przez 5 kilometrów. Kiedy odtwarzacz płyt kompaktowych lub płyt CD-ROM odszukuje dane, wyszukuje w spisie zawartości dysku adres tych danych i przesuwając się w poprzek tej spirali, ustawia się blisko ich początku, a następnie czeka, aż przesuwająca się wzdłuż ścieżki wiązka laserowa natrafi na poszukiwany ciąg danych. Dane znajdujące się na CD-ROM-ie zapisywane są ze stalą prędkością liniową (CLV -constant linear velocity). Oznacza to, że ścieżka z danymi zawsze przemieszcza się pod Nowe odtwarzacze CD-ROM odczytują informacje z wielokrotnie wyższymi prędkościami niż ich wcześniejsze wersje. Płyty CD, które one odczytują, są jednak nagrane w ten sam, co niegdyś sposób. Szybszy odczyt możliwy jest dzięki zmianie jego sposobu, który w przypadku nowszych odtwarzaczy realizowany jest z zachowaniem stałej prędkości kątowej (CAV constant angular velocity). Oznacza to, że promień lasera odczytuje dane znajdujące się na ścieżce z prędkością, której wartość różni się w zależności od położenia ścieżki na dysku. Przy zastosowaniu tej technologii, ze względu na to, iż płyta CD obraca się, podobnie jak płyta gramofonowa, ze stałą prędkością, jej zewnętrzne ścieżki czytane są przez napęd szybciej niż ścieżki znajdujące się bliżej środka. Połączenie obu wspomnianych technologii (odczytu ze stałą prędkością liniową i ze stałą prędkością kątową) nazywane jest techniką częściowo stałej prędkości kątowej P-CAV (Partial-CAY). Każdy blok płyty CD-DA (cyfrowej płyty audio) składa się z 2 352 bajtów. Na dysku CD-ROM (zawierającym dane) 304 z tych bajtów używane jest przez informacje bitów synchronizacji (Sync), identyfikacji (ID) oraz kodu korekcji błędów (ECC), oddając użytkownikowi do dyspozycji pozostałe 2 048 bajty. Ponieważ bloki te są odczytywane ze stałą szybkością 75 na sekundę, prędkość transferu danych pierwszych odtwarzaczy płyt CD-ROM wynosi tyle, co w przypadku odtwarzaczy audio płyt kompaktowych, czyli 153 600 bajtów na sekundę, to znaczy dokładnie 150 KB/s. Ponieważ na dysku zmieścić można do 74 minut danych, a w każdej sekundzie odtwarzane jest 75 sektorów, z których każdy mieści 2 048 bajtów, maksymalna odczytującym je laserem z taką samą prędkością liniową. Innymi słowy, dysk musi kręcić się szybciej podczas czytania wewnętrznych fragmentów tej ścieżki i wolniej podczas czytania jej fragmentów zewnętrznych. Ze względu na to, że płyty CD pierwotnie używane były do rejestrowania dźwięków, prędkość odczytu danych musiała być stała. W związku z tym dysk podzielono na bloki, czyli sektory, które zapisywane są z gęstością 75 bloków na sekundę na dysku mieszczącym do 74 minut informacji, co daje do 333 000 bloków (sektorów) na dysku. pojemność płyty CD-ROM wynosi 681 984 000 bajtów. Nagrywalne płyty CD dostępne są w wersjach 63 i 74 minutowych.
Wewnątrz płyty CD-ROM Podstawowa różnica pomiędzy odtwarzaczem audio kompaktowych płyt muzycznych i odtwarzaczem CD-ROM płyt zawierających dane wynika ze sposobu, w jaki ich mikroprocesory dekodują impulsy elektryczne. Odtwarzacze płyt audio CD konwertują zapisane na dysku informacje cyfrowe do postaci sygnałów analogowych wysyłanych następnie do wzmacniacza stereo w celu ich dalszego przetworzenia. Schemat ich działania dopuszcza określony stopień nieprecyzyjności, gdyż inaczej słuchanie muzyki w ogóle nie byłoby możliwe. Czytnik płyt CD-ROM zawierających dane nie może jednak tolerować jakiegokolwiek braku precyzji. Każdy bit danych musi być poprawnie odczytany. Z tego właśnie względu tak wiele bajtów sektora zajmowanych jest przez Kod korekcji błędów (kod ECC - ang. Error Correction Code). Kod ECC może być używany do rozpoznawania i korygowania pomniejszych błędów, podnosząc niezawodność i precyzję odczytu do poziomów spełniających wymogi przetwarzania danych. Napędy CD-ROM działają w następujący sposób: 1. Dioda lasera (patrz rys. 17.1) wysyła w kierunku lustra podczerwony promień o niskiej energii. 2. Silnik serwomechanizmu, na sygnał mikroprocesora zmieniając położenie lustra, ustawia promień lasera na odpowiednim sektorze ścieżki CD-ROM-u. 3. Po dotarciu do dysku, odbity od niego promień lasera jest zbierany i ogniskowany przez pierwszą soczewkę znajdującą się poniżej dysku, a następnie odbijany od innego lustra i przesyłany do urządzenia rozszczepiającego wiązkę lasera. 4. Urządzenie rozszczepiające kieruje powracającą wiązkę laserową ku innej soczewce ogniskującej. 5. Ostatnia soczewka przesyła promień do fotodetektora zamieniającego fale świetlne na impulsy elektryczne. 6. Impulsy te są dekodowane przez mikroprocesor napędu i przesyłane do komputera jako dane. Rysunek 17.1.Typowe elementy składowe napędu CD-ROM
Rowki znajdujące się na płycie CD-ROM mają różne długości. Przejście z obszaru rowka na obszar gładzi, i na odwrót, powoduje zmianę intensywności odbitego promienia lasera, od której zależy poziom sygnału elektrycznego wychodzącego z fotodetektora. Bity danych są więc zapisane na płycie w postaci przejść pomiędzy wysokimi i niskimi poziomami sygnałów, które to zmiany zachodzą na początku i na końcu każdego rowka. Błąd odczytu pojedynczego bitu może być zgubny dla programu lub pliku danych. W celu niedopuszczenia do tego stosowanych jest wiele algorytmów wykrywania i korekcji błędów. Procedury te zmniejszają prawdopodobieństwo niewykrycia błędu do poziomu poniżej l na l O25. A mówiąc bardziej opisowo, oznacza to, że statystycznie jeden nie wykryty błąd zdarzy się raz na 2 kwadryliony dysków (które jeśliby ustawić jeden na drugim, uformowałyby wieżę o wysokości ponad 2,5 miliarda kilometrów). Samo skorygowanie błędu wymaga 288 z każdych 2 048 bajtów danych na dysku. Pozwala to na korygowanie wielu błędnych bitów, w tym fragmentów o długości ponad 1000 błędnych bitów. Ta olbrzymia zdolność do korygowania błędów jest niezbędna ze względu na to, że nośniki CD zostały zaprojektowane do odtwarzania dźwięków, gdzie pomniejsze błędy albo nawet braki danych mogą być tolerowane - podczas gdy przy odtwarzaniu danych nie ma miejsca na najmniejsze nawet uchybienia w odczycie. W przypadku audio CD bowiem brakujące dane mogą być interpolowane, czyli ustalane na podstawie kolejnych informacji pozwalających ustalić tendencję zmian dźwięku i na tej podstawie oszacować brakującą wartość. Załóżmy na przykład, że na dysku audio zapisane są po kolei trzy wartości: 10, 13 i 20 i że ze względu na zabrudzenie lub uszkodzenie dysku wartość środkowa nie może być odczytana. Może ona być jednak interpolowana do wartości 15, która znajduje się „w połowie drogi" pomiędzy wartościami 10 i 20. Mimo iż nie będzie ona zgodna z wartością faktyczną, to dla słuchającego dźwięków odtwarzanych na podstawie danych błąd ten nie będzie zauważalny. Jeżeli natomiast te same trzy wartości będą stanowić część programu wykonywalnego zapisanego na CD-ROM-ie, to nie ma żadnego sposobu na poprawne oszacowanie wartości środkowej. Interpolować można wartości, których szereg odpowiada jakiemuś wzorowi. Dane, za pomocą których zapisany jest program, nie są w żaden sposób skorelowane (i nie podążają za żadnym wzorcem). Oszacowanie zatem wartości środkowej na 15 nie stanowi więc drobnej niedokładności, lecz jest zupełnie błędne (a jeżeli poprawne, to tylko przypadkowo). I to właśnie ze względu na precyzję wymaganą od napędów CD-ROM współpracujących z komputerami, na rynku pojawiły się one dużo później niż ich odpowiedniki audio. A nawet wtedy były zbyt drogie na to, by mogły zostać szeroko spopularyzowane. Problem tworzyli również sami producenci napędów, którzy z ostrożnością podchodzili do kolejnych standardów, co powodowało opóźnienia lub wstrzymywanie produkcji oprogramowania na płytach CD-ROM. A bez szerokiego zasobu programów dostępnych na tych płytach, akceptacja napędów CD-ROM przez użytkowników komputerów nie mogła nastąpić szybko.
Dostępne typy napędów Podczas kupowania napędu CD-ROM, rozważ trzy następujące zbiory właściwości charakteryzujących te urządzenia:
• dane techniczne dotyczące wydajności napędu, • rodzaj interfejsu, jakiego wymaga napęd w celu podłączenia go do komputera, • fizyczny system obsługi dysków.
Różnorodność każdej z tych kategorii jest ogromna. Pojedynczy producenci oferują całe linie napędów różniących się między sobą właściwościami, mechanizmami obsługi dysków i rodzajami kontrolerów używanych jako interfejsy komputera. Z tych powodów również ceny napędów są tak różne. Napędy CD-DA na przykład (służące do odczytywania dysków audio CD) są tanie ze względu na to, że do odtwarzania muzyki nie jest wymagana taka precyzja, jak do przetwarzania danych. Warto zatem zapoznać się z właściwościami napędu przed jego zakupem. Poniżej omówione są wszystkie trzy grupy właściwości, co powinno Ci ułatwić określenie rodzaju napędu CD-ROM, najbardziej Ci przydatnego.
Dane techniczne CD-ROM-u Dane techniczne CD-ROM-u mówią wiele o jego możliwościach. Jeśli na przykład szukasz auta sportowego, a sprzedawca informuje Cię, że dany model przyspiesza od O do 100 km/godz. w 5 sekund, wiesz, że może to być dokładnie to, czego szukasz. Aby ocenić wydajność auta, pytasz jeszcze o moc, wagę, sposób zawieszenia i inne dane techniczne. Dane techniczne CD-ROM-u mówią kupującemu równie wiele. Najczęściej publikowanymi danymi technicznymi są: prędkość transferu danych, czas dostępu, wielkość cache i używany interfejs.
Prędkość transferu danych Transfer danych jest to szybkość, z jaką napęd może odczytać relatywnie duży fragment danych z płyty CD-ROM i przesłać go do komputera. Standardową miarą jest kilobajt na sekundę, zwykle przedstawiany za pomocą skrótu kB/s. Jeśli producent twierdzi, że prędkość transferu napędu wynosi 150 kB/s, oznacza to, że po osiągnięciu odpowiedniej prędkości obrotu dysku, napęd będzie odczytywał ciągły strumień danych zapisanych na płycie z prędkością 150 kB/s. Proszę zauważyć, że prędkość ta dotyczy nieprzerwanego odczytu następujących po sobie danych, a nie dostępu do danych znajdujących się w różnych częściach dysku. Prędkość transferu danych można zatem traktować jako maksymalną prędkość, z jaką napęd może odczytywać dane. Im ta prędkość wyższa, tym lepiej, choć na wydajność napędu wpływ ma wiele innych czynników. Narzędzie służące do testowania napędów CD-ROM otrzymać można z następującej strony WWW laboratoriów TestaCDLabs: http:/www.azstarnet.com/~gcs/ Standardowy format CD określa, że normalnie odczytywanych jest 75 bloków (sektorów) danych na sekundę, przy czym każdy blok zawiera 2 048 bajtów danych. Daje to transfer danych o prędkości równej dokładnie 150 kB/s, co stanowi standard dla napędów CD-DA (odtwarzaczy płyt muzycznych), który wśród napędów CDROM nazywany jest szybkością pojedynczą. Termin szybkość pojedyncza używany jest w odniesieniu do napędów odczytujących płyty z szybkością 150 kB/s. Płyty CD zapisywane są wformacie stałej prędkości liniowej (CLV), co oznacza, że prędkość obrotowa dysku będzie zmieniana tak, aby prędkość odczytu ścieżki była stała. Prędkość transferu danych napędu o podwójnej szybkości (napędu 2x) wynosi 300 kB/s, czyli jest dwa razy wyższa niż napędu o szybkości pojedynczej.
Ponieważ napędy CD-ROM mogą czytać nie tylko dyski audio, które wymagają stałej prędkości odczytu, ale również dyski z danymi, które mogą być odtwarzane z różną prędkością, odczyt drugiego rodzaju dysków może być przyśpieszony przez zwiększenie prędkości, z którą są one obracane. Obecnie dostępne są napędy o wielu różnych szybkościach obrotu dysku będących wielokrotnościami prędkości napędów o pojedynczej szybkości. Tabela 17.1 przedstawia szybkości napędów CD-ROM i umożliwianych przez nie transferów danych. Tabela 17.1. Szybkości napędów CD-ROM i ich transferów danych
Szybkość napędu
Szybkość transferu danych (B/s)
Szybkość transferu danych (kB/s) (lx) 153600 Pojedyncza Podwójna (2x) 307200 Potrójna (3x) 460 800 Poczwórna (4x) 614400 Sześciokrotna (6x) 921 600 Ośmiokrotna (8x) 1 228 800 Dziesięciokrotna (10x) 1 536 000 1 843 200 Dwunastokrotna (12x) Szesnastokrotna (16x) 2 457 600 2 764 800 Osiemnastokrotna (18x) Dwudziestocztero (24x) 3 686 400 krotna Trzydziestodwukr (32x) 4915200 otna Stukrotna (100x) 15360000 Napędy CA V do 24x) 1 843200-3686400 (12x B/s = bajtów na sekundę kB/s = kilobajtów na sekundę
150 300 450 600 900 1200 1500 1800 2400 2700 3600 4800 15000 1800-3600
Obecnie najpopularniejsze są napędy 32- i 24-krotne, stanowiąc standardowe wyposażenie większości sprzedawanych obecnie komputerów osobistych. Fakt, że w standardzie MPC-3 (Multimedia Personel Computer) wymagany jest napęd o co najmniej 4-krotnej prędkości, przy pojawiających się napędach o prędkości 100krotnejJasno wskazuje, że postęp standaryzacji nie nadąża za postępem technologicznym. Prawdopodobnie w tej chwili trudno byłoby znaleźć nowy napęd o czterokrotnej prędkości. Nowe systemy typowo wyposażane są w napędy 24- i 32-krotne. Ponieważ szybkość napędów CD-ROM cały czas rośnie, problematyczna staje się decyzja zakupu lub wymiany takiego napędu. Szybkość samego napędu ma różne znaczenie dla użytkowników odmiennych typów. Jeśli z CD-ROM-u korzystasz głównie w celu przeglądania informacji tekstowej, na przykład w encyklopediach, słownikach czy książkach telefonicznych, to szybkość napędu nie jest czynnikiem krytycznym. Kilka sekund dłużej trwające instalowanie programu nie zawsze jest powodem, dla którego warto zaopatrywać się w najszybszy napęd na rynku.
Odrębną historię stanowiąjednak programy multimedialne oraz gry, zawierające mnóstwo muzyki, animacji i sekwencji wideo. Wrażenie multimedialne może być znacznie pogłębione dzięki szybkiemu napędowi CD-ROM, w związku z czym niektórzy producenci oprogramowania podają nawet zalecaną minimalną szybkość napędu. Nie ma jednak powodu, aby kupować szybszy napęd, gdy tylko pojawi się w sklepach. Graczom i innym użytkownikom intensywnie korzystającym z CDROM-u zalecamy przyjęcie ogólnej zasady, która mówi, że nie warto wymieniać napędu, jeśli szybkość nowego urządzenia nie jest przynajmniej dwa razy większa niż starego. Osobiście nadal posiadam napęd o jednokrotnej szybkości, który doskonale się nadaje do instalowania oprogramowania. Mimo znacznego wzrostu szybkości, nawet najszybsze napędy CD-ROM bledną w porównaniu z prędkościami transmisji dysków twardych, które mogą osiągać nawet 21 MB/s. Interfejsy SCSI i ATA/IDE, z których korzystają dzisiejsze napędy CD-ROM, pozwalają na przesyłanie danych z prędkością do 80 MB/s, co oznacza, że zaciekły wyścig o wzrost szybkości samego napędu może trwać dalej bez obawy o wydolność łącza komputer -CD-ROM. Jeśli masz zamiar korzystać z różnorodnego oprogramowania zapisanego na płytkach CD, będziesz potrzebował urządzenia o dużej prędkości transmisji. Aplikacje wykorzystujące pełnoekranowe sekwencje wideo, animacje i dźwięk wymagają dużych prędkości transmisji i ich odczytywanie za pomocą wolniejszego napędu może wywoływać rozczarowanie.
Czas dostępu Dla napędu CD-ROM jest mierzony w ten sam sposób, co dla dysków twardych. Czas dostępu jest więc równy opóźnieniu pomiędzy otrzymaniem przez napęd polecenia odczytu, a odczytem pierwszego bitu informacji. Czas ten mierzony jest w milisekundach. Standardowa wartość czasu dostępu dla napędu o poczwórnej szybkości wynosi 200 ms. Czas ten, podawany przez producentów, jest przeciętnym czasem dostępu. Faktyczny czas dostępu jest natomiast zupełnie inną charakterystyką, która zależy wyłącznie od tego, w którym miejscu dysku znajduje się odczytywana informacja. I tak, jeśli głowice odczytują informacje znajdujące się bliżej wewnętrznej części dysku, czas dostępu jest krótszy niż w razie, gdyby znajdowały się one bliżej zewnętrznego krańca dysku. Czas dostępu podawany przez większość producentów jest średnim czasem dostępu obliczonym na podstawie wielu prób przypadkowych odczytów z dysku. Oczywiście, im czas dostępu jest krótszy, tym lepiej, zwłaszcza gdy ważne jest, by napęd szybko wyszukiwał i pobierał dane. Czasy dostępu dla napędów CD-ROM stale się poprawiają (zmniejszają), a postępy w tej dziedzinie omówione są w dalszej części niniejszego rozdziału. Proszę zauważyć, że czasy te są nadal dużo większe od czasów dostępu charakteryzujących dyski twarde, gdyż wy noszą od 200 do 100 ms w porównaniu do 8 ms dla typowego dysku twardego. Największa różnica wynika z samej konstrukcji napędu: dysk twardy ma wiele głowic czytających, z których każda obsługuje dużo mniejszą powierzchnię nośnika niż jedna głowica laserowa. Napędy CD-ROM wyposażone są bowiem w jedną tylko wiązkę lasera odczytującego, który musi obsługiwać całą powierzchnię dysku. Oprócz tego, dane na płytach CD zorganizowane są w postaci długiej spirali ciągnącej się od jednego do drugiego krańca całego dysku. Kiedy więc napęd CD-ROM ustawia swoje głowice w celu odczytu informacji, musi oszacować miejsce, w którym dane te się znajdują, a następnie przemieszczać głowice w przód i w tył, aż do zlokalizowania odpowiedniego miejsca na spiralnej ścieżce. Odczyt zewnętrznych fragmentów tej ścieżki wiąże się więc z dłuższym czasem dostępu niż odczyt tych samych fragmentów, lecz położonych bliżej środka dysku, chyba że napęd odczytujący jest napędem CA V, który obraca dyskiem ze stałą prędkością kątową, dzięki czemu zewnętrzne fragmenty ścieżki odczytywane są równie szybko, co jej fragmenty wewnętrzne.
Czasy dostępu stale się skracają. Z każdym wzrostem szybkości transferu danych zazwyczaj związane jest skrócenie czasu dostępu. Tabela 17.2 wskazuje jednak, że skrócenie czasu dostępu nie jest proporcjonalne do zwiększenia prędkości transferu, co oznacza, że udoskonalenia w dziedzinie skracania czasu dostępu są mniejsze. Wynika to z fizycznych ograniczeń konstrukcji mechanizmu odczytu wyposażonego w jeden tylko mechanizm odczytujący. Tabela 17.2. Szybkości napędów CD-ROM i ich transferów danych
Szybkość napędu Pojedyncza
Czas dostępu (ms) (lx) 400
Podwójna
(2x) 300
Potrójna Poczwórna
Sześciokrotna
(3x) 200 (4x) 150
(6x) 150
Ośmiokrotna
(8x) 100
Dziesięciokrotna
(10x) 100
Dwunastokrotna
(12x) 100
Szesnastokrotna
(16x) 90
Osiemnastokrotna
(18x) 90
Dwudziestoczterokrotna
(24x) 90
Trzydziestodwukrotna
(32x) 85
Stukrotna
(100x) 80
Napędy CAV
(12x do 24x) 150-90
Podane w tej tabeli czasy dotyczą napędów dobrej jakości; w każdej kategorii prędkości znajdą się na pewno napędy o parametrach lepszych (szybsze) i gorszych (wolniejsze).
Bufor/Cache Większość napędów zawiera wbudowaną pamięć typu cache. Jest to bufor umożliwiający zebranie odczytywanych informacji w większą całość, przed wysłaniem ich do komputera. Typowym rozmiarem bufora dla napędu CD-ROM jest 256 kB, choć dostępne są oczywiście napędy z pamięcią cache o mniejszym lub większym rozmiarze (zwykle im więcej, tym lepiej). Ogólnie mówiąc, szybszy napęd zaopatrzony jest w bufor o większym rozmiarze umożliwiający obsługę szybszych transferów danych.
Wbudowana pamięć cache zapewnia między innymi możliwość otrzymywania danych z CD-ROM-u ze stałą prędkością, nawet wtedy, gdy dane żądane przez aplikację porozrzucane są w różnych miejscach dysku. Ponieważ czas dostępu napędu i tak jest już względnie długi, przerwy pomiędzy kolejnymi odczytami danych mogą powodować, że napęd będzie przesyłać dane do komputera sporadycznie. Sytuacja taka może nie powodować problemów w razie korzystania z typowych aplikacji tekstowych, ale generalnie dłuższy czas dostępu w połączeniu z brakiem buforowania jest łatwo zauważalny, a nawet irytujący, zwłaszcza w przypadku odtwarzania fragmentów audio lub wideo. Oprócz tego, bufor napędu, pod kontrolą odpowiedniego oprogramowania, potrafi odczytywać i przygotowywać spis zawartości dysku, co przyśpiesza proces realizacji pierwszego żądania odszukiwania danych na dysku. Minimalnym zalecanym rozmiarem wbudowanej pamięci podręcznej napędu CD-ROM jest 256 kB, standardowo montowane w większości napędów o ośmiokrotnej i większej szybkości.
Interfejs Interfejsem CD-ROM-u jest fizyczne złącze napędu z gniazdem rozszerzenia magistrali komputera. Jego znaczenie nie powinno być bagatelizowane. Istnieją trzy różne typy interfejsów - oraz jeden standardowy port komputera PC - przy użyciu których napędy CD-ROM można przyłączać do systemu. Są to: • interfejsy SCSI/ASPI, • interfejsy IDE/ATAPI, • interfejsy firmowe, • port równoległy (Centronics). Interfejsy te są omówione i porównane w kolejnych punktach niniejszego rozdziału.
SCSI/ASPI SCSl (czyt. „skazi" - ang. Smali Computer System Interface) to nazwa nadana specjalnemu interfejsowi magistrali, który umożliwia komunikację wielu różnym typom urządzeń zewnętrznych. Obecnie instalowaną wersją tego standardu jest SCSI-2. Oprogramowaniem najczęściej używanym do komunikacji pomiędzy napędem CD-ROM (i innymi urządzeniami peryferyjnymi) a kontrolerem jest standardowe oprogramowanie interfejsu nazywane ASP! (ang. Advanced SCSI Programming Interface). SCSI oferuje największą elastyczność i wydajność ze wszystkich interfejsów dostępnych dla napędów CD-ROM i umożliwia przy tym podłączenie do systemu większej liczby urządzeń peryferyjnych. Eliminuje to konieczność wstawiania kart różnych kontrolerów do kolejnych slotów komputera za każdym razem, gdy instalowane jest następne urządzenie, nawet tak niewinne, jak napęd taśm czy dodatkowy napęd CD-ROM. Ta właściwość interfejsu SCSI sprawia, że stanowi on najlepszy wybór, jeśli chodzi o podłączanie do komputera wielu urządzeń peryferyjnych, takich jak na przykład napęd CD-ROM. Wszystkie te urządzenia są podłączone do jednej karty rozszerzającej - zużywającej tylko jedno gniazdo płyty głównej.
Mimo że kontrolery SCSI posługują się zbiorem tych samych poleceń, różnią się między sobą sposobami ich realizacji. Sposoby te natomiast zależą od fizycznej konstrukcji kontrolera, czyli od producenta. W celu zlikwidowania tych niezgodności utworzony został standard ASPI. Pierwotnie był on rozwijany (pod nazwą Adaptec SCSI Pro-gramming Interface) przez firmę Adaptec, Inc. - lidera w dziedzinie produkcji kontrolerów SCSI. Potem przyjęło się inaczej rozszyfrowywać ten skrót: Advanced SCSI Programming Interface (zaawansowany interfejs programowania SCSI). ASPI składa się z dwóch głównych części. Pierwszą z nich stanowi program ASPI-Manager, który jest sterownikiem umożliwiającym komunikację pomiędzy danym systemem operacyjnym i określonym typem kontrolera SCSI. ASPI-Manager ustanawia interfejs ASPI magistrali SCSI. Drugą częścią systemu ASPI jest indywidualny sterownik ASPI urządzenia SCSI. W przypadku napędu CD-ROM byłby nią sterownik ASPI używanego napędu SCSI CD-ROM. Sterowniki ASPI tworzone są również dla takich urządzeń SCSI, jak napędy taśm, skanery, itp. Sterownik ASPI zainstalowanego urządzenia SCSI komunikuje się z programem ASPI-Manager kontrolera, do którego jest ono podłączone. Umożliwia to bezbłędną komunikację wielu urządzeniom znajdującym się na jednej magistrali SCSI. Podstawową więc sprawą podczas zakupu napędu CD-ROM z interfejsem SCSI jest upewnienie się, że wraz z urządzeniem dostarczany jest sterownik ASPI, pozwalający napędowi działać pod kontrolą zainstalowanego na komputerze systemu operacyjnego. Warto też upewnić się, że kontroler SCSI wyposażony jest również w odpowiedni sterownik ASPI-Manager. Wiele interesujących informacji na ten temat znajdziesz na następującej stronie firmy Adaptec: http://www.adaptec.com Interfejs SCSI oferuje najpotężniejsze i najbardziej elastyczne łącze zarówno dla CD-ROM-u, jak i dla innych urządzeń. Zwiększa ono ich wydajność oraz umożliwia podłączenie aż siedmiu takich urządzeń do pojedynczego kontrolera. Wadą tego systemu jest j ego koszt. Jeśli nie potrzebujesz SCSI - ani specyficznych możliwości, jakie daje ten standard - planujesz podłączenie tylko jednego napędu CD-ROM, rozwiązaniem o wiele bardziej opłacalnym będzie nabycie napędu CD-ROM z interfejsem IDE/ATAPI.
IDE/ATAPI IDE/ATAPI ]e&{ rozszerzeniem interfejsu ATA (ang. AT Attachment), przy użyciu którego większość użytkowników podłącza do komputera dyski twarde. Dokładniej rzecz ujmując, ATAPI jest standardowym interfejsem (Enhanced IDĘ) dla napędów CD-ROM - oprogramowaniem dostosowującym polecenia SCSI/ASPI do interfejsu IDE/ATA. W przeszłości pozwoliło ono producentom na szybkie dostosowanie wysokiej klasy napędów CD-ROM do interfejsu IDĘ. A dzięki temu napędy IDĘ CD-ROM mogły zachować zgodność z MSCDEX (rozszerzeniem Microsoft CDROM Extension), używanym przez DOS do komunikacji z napędem CD-ROM. W Windows 95 podsystem komunikacji ze stacją CD-ROM zawarty jest w jednym ze sterowników VxD - obsługującym system plików CD: CDFS (CD File System). Napędy ATAPI znane są również pod nazwą Enhanced IDĘ (EIDE), jako że ATAPI stanowi rozszerzenie oryginalnego interfejsu IDE/ATA. Zwykle napędy IDE/ATA CD-ROM podłączane są do komputera za pomocą drugiego kanału IDĘ, co pozostawia kanał pierwszy do wyłącznej dyspozycji dysku twardego.
Rozwiązanie takie jest stosowane ze względu na to, że interfejs IDE nie potrafi poprawnie dzielić pojedynczego kanału, w związku z czym współużywanie go przez dysk twardy i napęd CD-ROM zmuszałoby dysk do czekania na zakończenie wykonywania poleceń wydanych napędowi CD-ROM i na odwrót. W technologii SCSI nie ma tego rodzaju ograniczeń, dzięki czemu umożliwia ona wysyłanie poleceń do wielu różnych urządzeń bez potrzeby oczekiwania na zakończenie realizacji poleceń wysłanych wcześniej. Interfejs IDE/ATAPIjest najwydajniejszym z tańszych interfejsów napędów CDROM. W większości nowych komputerów napędy CD-ROM połączone są więc z systemem za pośrednictwem właśnie interfejsu IDE/ATAPI. W związku z tym warto zawsze sprawdzić, czy napęd CD-ROM podłączony jest do drugiego kanału IDĘ i czy kanał ten nie jest współużytkowany z dyskiem twardym. Wiele nowych kart dźwiękowych wyposażanych jest również w sterownik interfejsu ATAPI i również wymaga podłączenia do kanału drugiego, co jest możliwe, gdyż za pośrednictwem złącza drugiego można podłączyć jedno lub dwa urządzenia (napędy). W razie potrzeby zainstalowania większej liczby urządzeń, SCSI jest lepszym rozwiązaniem.
Interfejsy firmowe Jeszcze jeden typ interfejsu, który można wykorzystać w napędach CD-ROM, stanowią interfejsy firmowe. Są to najczęściej dołączane do komputerów po bardzo niskiej cenie napędy CD-ROM wyposażone we własny kontroler. Interfejsy te są niestandardowe i, mimo że niedrogie, najczęściej nie są wystarczająco elastyczne i nie oferują odpowiedniego poziomu wydajności. Z tych względów nie są one polecane, a wręcz przeciwnie, zaleca się korzystanie z napędów, których interfejsami są albo SCSI, albo IDE/ATAPI.
Port równoległy Napędem najprostszym w instalacji jest napęd CD-ROM podłączany poprzez port równoległy. Aby zainstalować taki napęd, zamiast otwierania obudowy w celu wstawienia sterownika SCSI lub podłączenia napędu wewnętrznego, wystarczy podłączyć kabel napędu do gniazda portu równoległego i zainstalować odpowiednie oprogramowanie. Oczywiście, zaletami napędów korzystających z portów równoległych są łatwość ich instalacji i przenoszenia. W środowisku biurowym, w którym podstawowym zastosowaniem napędów CD-ROM jest instalacja oprogramowania, możesz łatwo przenosić taki napęd pomiędzy komputerami, zamiast kupować osobne urządzenie dla każdego z komputerów. Jeśli korzystasz z systemu operacyjnego wykorzystującego Pług and Play (PnP), takiego jak Windows 9x, samo podłączenie napędu PnP do portu równoległego powoduje, że system operacyjny go wykrywa i automatycznie instaluje odpowiednie sterowniki. Napędy CD-ROM podłączane do portu równoległego prawie zawsze posiadają specjalną wtyczkę z przejściówką, dzięki czemu do pojedynczego portu można podpiąć zarówno sam napęd, jak i drukarkę. Takie rozwiązanie eliminuje konieczność stosowania osobnego portu dla napędu CD-ROM i osobnego dla drukarki.
Jak można się domyślić, za tę wygodę trzeba w jakiś sposób zapłacić. Napędy podłączane do portów równoległych zwykle oferują wolniejszą transmisję danych niż urządzenia korzystające z interfejsu SCSI lub IDE/ATA, są nieco droższe i oczywiście wymagają osobnego zasilania. Urządzenia podłączane do portów równoległych mogą także powodować problemy ze zgodnością, szczególnie w starszych systemach. Niski poziom wydajności takich napędów może powodować, że nie jest możliwe korzystanie z nich w nowych grach i aplikacjach multimedialnych, jednak do ogólnego użytku doskonale się nadają. Ogólnie rzecz biorąc, nie polecam kupowania takiego napędu tylko ze względu na łatwość jego zainstalowania. Instalowanie wewnętrznego napędu nie jest szczególnie skomplikowane, zaś wzrost wydajności wart jest poniesienia dodatkowego wysiłku. Gdy jednak główną cechą, która Cię w napędzie interesuje, jest możliwość jego przenoszenia, napędy CD-ROM podłączane do portu równoległego stanowią najlepsze rozwiązanie.
Mechanizm ładowania dysków Wyróżnić można dwa ładowane do napędów ma zalety i wady. Typ napędem, gdyż trzeba napędu.
rodzaje mechanizmów, za pomocą których płyty CD są CD-ROM: kasetkę (caddy) i podajnik (tray). Każdy z nich mechanizmu ładowania ma duży wpływ na sposób pracy z się nim posługiwać podczas każdego wkładania dysku do
Na rynku dostępne są wielodyskowe napędy CD-ROM umożliwiające włożenie jednocześnie więcej niż jednego dysku do napędu. Większość z nich posiada specjalny pojemnik na dyski, w którym umieszcza się je podobnie jak w wielodyskowych samochodowych odtwarzaczach kompaktowych.
Kasetka System kasetowy używany jest w większości lepszych napędów CD-ROM. W tym systemie ładowania płyta CD wkładana jest do specjalnej kasetki będącej szczelnym pojemnikiem wyposażonym w metalową przykrywkę. Umieszczone na zawiasach wieko kasety umożliwia włożenie płyty do jej środka, pozostając przy tym zawsze zamknięte. Podczas wkładania kasetki do napędu, następuje otwarcie metalowej przykrywki płyty, co tym samym umożliwia laserowi odczyt informacji zapisanych na płycie. System ten nie jest najwygodniejszym mechanizmem ładowania dysków. Chyba że wszystkie dyski, których używasz, znajdują się w osobnych kasetkach. Wtedy, aby załadować dysk do napędu, wystarczy wepchnąć zawierającą go kasetkę do napędu -podobnie jak w przypadku dyskietek 3,5 cala. Kasetkę można używać bez obaw o zanieczyszczenie czy uszkodzenie dysku. Mogą się nimi posługiwać nawet dzieci, przed którymi delikatne dyski chronione są przez kasetkę. Umieszczenie dysków w kasetkach zmniejsza możliwość ich uszkodzenia podczas posługiwania się nimi. Właściwie przy tym systemie ładowania jedynym momentem, w którym możemy uszkodzić dysk, jest chwila umieszczania go w kasetce. System ten zapewnia również prawidłową lokalizację dysku wewnątrz napędu. Pozwala to na wykorzystanie dokładniejszych mechanizmów pozycjonowania głowicy lasera i uzyskanie w wyniku tego krótszych czasów dostępu.
Największą wadą wiążącą się z wykorzystywaniem tego systemu są dodatkowe wydatki, które należy ponieść, jeśli chce się wygodnie zeń korzystać. Napędy wyposażone w ten system sprzedawane są zwykle z jedną tylko kasetką, w związku z czym trzeba ich jeszcze wiele dokupić. W przeciwnym razie, podczas każdej zmiany dysku trzeba będzie wysunąć kasetkę z napędu, wyjąć płytę z kasetki, włożyć ją do oryginalnego pudełka, otworzyć pudełko zawierające nową płytę, włożyć ją do kasetki i w końcu wsunąć kasetkę z powrotem do napędu. Każda kasetka kosztuje około 10 zł, a celu wygodnego posługiwania się nimi wypada ich mieć około 20 lub przynajmniej tyle, ile dysków jest regularnie używanych. Oczywiście zwiększy to koszt zakupu napędu CD-ROM o około 200 zł, ale jest to cena, którą trzeba zapłacić za wygodę, trwałość, niezawodność i wyższą wydajność. Gdy już kupisz kasetki na wszystkie płyty, z których korzystasz, czynność wymiany dysków będzie tak prosta jak dyskietek: wystarczy wysunąć kasetkę z napędu i włożyć doń drugą. Kasetka przy tym spełnia funkcję pudełka na płytę, w związku z czym w ogóle nie warto z niej dysku wyjmować. Ostatnią przewagą napędu wykorzystującego kasetowy system ładowania dysków jest fakt, że umożliwia on montowanie napędu w dowolnej płaszczyźnie: zarówno poziomo, jak i pionowo. Tańsze napędy z podajnikowym systemem ładowania dysków tego nie umożliwiają, choć nowsze podajniki, wyposażone w małe zakładki utrzymujące dysk w odpowiedniej pozycji, już tak. Większość napędów wykorzystuje podajnikowy mechanizm ładowania dysków. System ten jest podobny do stosowanego w odtwarzaczach płyt kompaktowych. Ponieważ nie trzeba wkładać każdego dysku do oddzielnej kasetki, mechanizm ten jest generalnie dużo tańszy od systemu wykorzystującego kasetki. Oznacza to jednak również, że dysk jest dotykany (czyli może zostać uszkodzony) podczas każdej czynności wkładania go do napędu lub wysuwania go stamtąd. Mechanizm z podajnikiem jest wygodniejszy niż z kasetką z tego względu, że nie trzeba wkładać dysków do kaset. Na pewno jednak skraca on czas życia płyt. Sam podajnik jest również podatny na uszkodzenia. W przypadku uderzenia go lub upuszczenia nań ciężkiego przedmiotu podczas gdy jest on wysunięty, podajnik może łatwo zostać złamany. Także wszelkiego rodzaju zanieczyszczenia znajdujące się na dysku lub podajniku w chwili wsuwania dysku do napędu łatwo dostają się do wnętrza napędu. Napędy wyposażone w podajnik nie powinny więc być używane w bardziej szkodliwych warunkach środowiska, takich, jakie panują na przykład w zakładach przemysłowych czy nawet handlowych. Podajnik nie trzyma dysku tak pewnie jak kasetka. Jeśli więc dysk nie zostanie poprawnie umieszczony na podajniku, to w wyniku tego uszkodzeniu ulec może zarówno dysk, jak i podajnik. Niektóre napędy wyposażone w podajnik nie mogą działać w płaszczyźnie pionowej, jako że grawitacja uniemożliwiałaby ładowanie i poprawną obsługę dysku. W pozycji tej mogą działać tylko te napędy, które na zewnętrznej krawędzi podajnika mają niewielkie uchwyty przytrzymujące dysk w odpowiedniej pozycji.
Przewaga mechanizmu z podajnikiem nad mechanizmem z kasetką wynika z jego niższej ceny. Jeśli więc nie masz małych dzieci, a napęd będzie działać w czystym środowisku i dyski będą traktowane z odpowiednią ostrożnością, warto kupić napęd z podajnikiem ze względu na to, że jest tańszy.
Inne właściwości napędów Choć największe znaczenie dla pracy dysku mająjego dane techniczne, to podczas zakupu warto wziąć pod uwagę również kilka innych czynników i właściwości, takich jak: • sposób uszczelnienia napędu, • obecność mechanizmu czyszczenia soczewek, • sposób montowania napędu (wewnętrzny czy zewnętrzny).
Sposób uszczelnienia napędu „Brud to największy CD-ROM-u wróg". Kurz i brud zbierający się na soczewkach napędu może powodować błędy odczytu lub znaczne obniżenie wydajności. Wielu producentów w związku z tym umieszcza soczewki i wewnętrzne elementy napędu w szczelnych opakowaniach. Inne znów napędy, jeśli nie są szczelnie zamknięte, mają podwójne drzwiczki: jedne zewnętrzne i jedne wewnętrzne chroniące przed dostawaniem się kurzu z zewnątrz. Wszystkie te udoskonalenia służą przedłużeniu żywotności napędu. Napędy wykorzystujące kasetkę są z zasady lepiej chronione przed szkodliwym wpływem środowiska zewnętrznego niż napędy z podajnikiem. W zanieczyszczonych otoczeniach handlowych i przemysłowych używaj więc zawsze napędu z kasetkowym mechanizmem ładowania dysków.
Samoczyszczenie soczewek Jeżeli soczewka lasera zostanie zabrudzona, odczyt danych będzie utrudniony, o ile w ogóle będzie możliwy. Napęd będzie stale powtarzać operacje wyszukiwania danych, a w końcu zaniecha odczytu. Sytuacja taka praktycznie nie zachodzi, jeśli napęd wyposażony jest w mechanizm czyszczenia soczewek, a mechanizmy takie wbudowywane są w praktycznie wszystkie napędy wysokiej jakości. Ta właściwość napędu jest warta rozważenia, zwłaszcza gdy z komputera korzystasz w nie najczystszym otoczeniu lub gdy nie masz czasu na utrzymywanie czystości na własnym biurku, a tym bardziej na soczewkach CDROM-u.
Napęd wewnętrzny czy zewnętrzny Wybierając pomiędzy napędem wewnętrznym i zewnętrznym pomyśl o tym, gdzie i kiedy chcesz używać napędu. Jak się oba rodzaje napędów mają do ewentualnej rozbudowy systemu? Oba mają zalety i wady. Poniżej wymieniam kilka z nich:
Napęd zewnętrzny Tego typu napędy są zwykle odporniejsze, łatwiejsze do przenoszenia i większe niż ich wersje do instalowania wewnętrznego. Napęd zewnętrzny warto kupować tylko wtedy, gdy nie ma dlań miejsca wewnątrz obudowy komputera. Innym powodem zakupu napędu zewnętrznego może być również potrzeba swobodnego przenoszenia napędu z jednego komputera do drugiego. Jeśli każdy komputer ma kontroler SCSI, wystarczy jedynie odłączyć napęd od kontrolera jednego komputera i podłączyć go do kontrolera znajdującego się w drugim komputerze. Tylko napęd SCSI CD-ROM może być zewnętrzny, więc jeśli chcesz mieć napęd z interfejsem IDĘ, musi to być napęd wewnętrzny.
Napęd wewnętrzny Wewnętrzny napęd zwolni część przestrzeni na biurku. Napęd wewnętrzny warto kupować, jeśli w obudowie komputera są jeszcze wolne wnęki i jeśli napęd CDROM nie ma być przenoszony od komputera do komputera, lecz na stałe współpracować z jednym z nich. Wszystkie nowoczesne komputery powinny mieć wbudowany napęd CD-ROM, który od dawna nie jest już uważany za urządzenie peryferyjne. Napęd wewnętrzny jest bardzo wygodny w obsłudze, gdyż można go połączyć z kartą dźwiękową, co pozwala wykorzystać zewnętrzne złącza audio do innych celów. Napęd wewnętrzny może być zarówno IDĘ, jak i SCSI.
Formaty dysków i napędów CD-ROM Pokryta aluminium i plastikiem warstwa poliwęglanowa płyty kompaktowej zorana jest rowkami, za pomocą których w binarnym formacie zer i jedynek zakodowana jest określona informacja. Bez odpowiedniej organizacji logicznej dysku pełnego cyferek, ani napęd CD-ROM, ani sam komputer nie byłby w stanie znaleźć żądanej informacji. W związku z tym dane są kodowane zgodnie z przyjętymi standardami. Dlatego, napotkawszy określony wzór, zarówno napęd, jak i komputer będą w stanie rozpoznać sposób organizacji dysku i w gąszczu zer i jedynek odnaleźć żądaną informację. Bez standardowych formatów danych, cały przemysł związany z napędami CD-ROM nie mógłby się rozwijać. Każdy producent określonego typu dysków i napędów musiałby produkować również oprogramowanie do nich, gdyż napędy przez niego produkowane byłyby niezgodne z dyskami innych producentów, co ograniczałoby znacznie liczbę sprzedawanych napędów i zahamowałoby rozwój tej gałęzi przemysłu komputerowego. Formaty i standardy są bowiem niezbędne do rozwoju technologii. Na przykład, technologia produkowania aut z twardymi gumowymi kołami pozbawionymi zawieszenia wystarczała w przypadku pierwszych samochodów pędzących z prędkością dochodzącą (rzadko) do 50 km/godz. Ale wpadnięcie tak skonstruowanym autem w dziurę przy możliwej do osiągnięcia dzięki wydajniejszym silnikom prędkości 100 km/godz. skończyłoby się zapewne poważnym uszkodzeniem zarówno auta, jak i osób znajdujących się w jego wnętrzu. W związku z tym, wypełnione powietrzem opony oraz amortyzatory jako niezbędne elementy współczesnego (rozwijającego prędkość pow. 50 km/godz.) samochodu musiały stać się standardem, gdyż bez nich niemożliwe byłoby zastosowanie wydajniejszych silników i dalsze udoskonalanie całej konstrukcji.
Podobnie rozwijały się również standardy dotyczące formatów dysków. Pierwsze dyski potrafiły przechowywać jedynie tekst, który jest w miarę łatwy do zakodowania na dysku. Próby zapisania grafiki stworzyły nowe, większe wyzwania, w trakcie realizacji których rozwinięte zostały nowe standardy. Potrzeba zapisania animacji zsynchronizowanej z dźwiękiem oraz obrazów wideo wymagała dalszego rozszerzenia standardów zapisu danych na płytach kompaktowych. Pamiętać należy, że obecnie stosowane zaawansowane standardy CD-ROM nadal podlegają procesom ewolucji. Różni producenci używają różnych technik w celu poszerzenia możliwości technologii CD-ROM. Często są one niezgodne z przyjętymi rozwiązaniami lub wymagają pewnych poprawek, ale o tym, czy zostaną szerzej zaakceptowane decyduje głównie fakt przyjęcia tych nowych standardów przez producentów oprogramowania. Warto więc jeszcze przed zakupem CD-ROM-u zapoznać się z tym, jakie standardy dziś obowiązujące i jakie formaty stosowane ewentualnie w przyszłości potrafi on obsługiwać. Większość dostępnych dziś napędów obsługuje również formaty wcześniej używane, umożliwiając w ten sposób użytkownikowi korzystanie z rozległej biblioteki aplikacji uprzednio już zamieszczonych na CD-ROM-ach w innych formatach.
Standard danych: ISO 9660 Twórcy pierwszych dysków CD-ROM przeznaczonych do przechowywania danych produkowali dyski dla jednego tylko, określonego rodzaju napędu. Oznacza to, że dysk przeznaczony do współpracy z napędem firmy A nie mógł być odczytany przez napęd firmy B. Aby bowiem dysk mógł być użyty z określonym napędem, musiał być sformatowany odpowiednio do indywidualnych wymogów każdego producenta napędów. Oczywiście spowalniało to rozwój tej gałęzi przemysłu komputerowego. Firmy Philips i Sony uzgodniły więc specyfikacje dla CD-ROM-ów zawierających dane, którym nadana została nazwa „Yellow Book" („Żółta księga"). Kiedy po raz pierwszy opublikowane zostały specyfikacje dotyczące dysków audio CD, materiały te wydane były w czerwonej okładce, w związku z czym nazwano je „Red Book" („Czerwona księga"). Nazwy kolejnych specyfikacji CD-ROM, takich jak „Orange Book" („Pomarańczowa księga") i „Green Book" („Zielona księga"), nazywane były również odpowiednio do koloru okładek, w których zostały one wydane. Specyfikacje „Żółtej księgi" szczegółowo opisują sposób zorganizowania danych dysku. International Standards Organization (ISO, czyli Międzynarodowa organizacja standardów) uogólniła tę specyfikację, dodała do niej tabelę zawartości dysku, dzięki której możliwe stało się odczytanie zawartości dowolnego typu dysku w dowolnym napędzie, i nadała jej własną (oczywiście) nazwę (ISO 9660). Tabela, o której mowa (Volume Table Contents), jest bardzo podobna do spisu treści zwyczajnej książki. Wprowadzenie standardu ISO 9660 nie rozwiązało jednak wszystkich problemów związanych ze zgodnością formatów danych. Sposób wprowadzenia informacji dodatkowych ułatwiających wyszukiwanie danych na dysku oraz sposób formatowania bloków danych pozostawiono bowiem do samodzielnej (czyt. wzajemnie niezgodnej) realizacji przez indywidualnych producentów.
Format High Sierra Rozwiązanie tej sprawy leżało w interesie wszystkich tam przybyłych. W 1985 roku, na spotkanie do hotelu „High Sierra Hotel and Casino" w Lakę Tahoe, Kalifornia, przybyli najwięksi producenci napędów i płyt CD-ROM. Jego celem było przezwyciężenie wspólnych problemów, z którymi żaden z nich z osobna nie mógł się uporać, czyli zlikwidowanie różnic w sposobie implementacji formatu ISO 9660. Przyjęte wtedy rozszerzenie dotychczasowego standardu nazwano formatem High Sierra — dziś jest on nadal częścią specyfikacji ISO 9660. Rozszerzenie to umożliwiło wszystkim napędom poprawne odczytywanie wszystkich dysków zapisanych zgodnie ze standardem ISO 9660, co pozwoliło na masową produkcję oprogramowania na płytach CD-ROM. Przyjęcie tego standardu umożliwiło producentom oprogramowania dostarczanie wieloplatformowej obsługi swoich programów i łatwą produkcję dysków dla różnych systemów operacyjnych, takich jak DOS, UN1X i inne. Gdyby do tego porozumienia nie doszło, rynek CD-ROM-ów prawdopodobnie do dziś rozwijałby się w bólach, producenci próbowaliby narzucić sobie wzajemnie coraz to lepsze, ale zawsze bardzo różne sposoby zapisu informacji, a konsumenci nie mieliby dostępu do tysięcznej nawet części informacji znajdujących się dziś na płytach CD-ROM. Pełne i szczegółowe informacje dotyczące sposobów formatowania nośników CDROM są złożone, suto okraszone technicznym żargonem i najprawdopodobniej większości z nas do niczego niepotrzebne. Podstawy tej technologii natomiast warto znać, gdyż daje to wgląd w bardzo szybki sposób odzyskiwania informacji z nieograniczonego praktycznie źródła. Organizacja dysku CD-ROM zapisanego w formacie High Sierra jest bardzo podobna do układu znanego z dysków elastycznych. Każda dyskietka ma ścieżkę systemową, która nie tylko umożliwia identyfikację dyskietki, ale również określa jej gęstość i system operacyjny oraz informuje komputer o sposobie organizacji katalogów i znajdujących się w nich plików. Podstawowe formaty CD-ROM wyglądają dosyć podobnie. Początkowy fragment ścieżki danych identyfikuje płytę jako dysk CD i rozpoczyna synchronizację między napędem i dyskiem. Po synchronizacji następuje ustalenie struktury dysku na poziomie systemowym; częścią obszaru systemowego jest również pole zawierające nazwę dysku i opis miejsc, w których dane faktycznie się znajdują. W części systemowej dysku zapisane są również katalogi znajdujące się na płycie oraz wskaźniki, czyli adresy różnych obszarów, co ilustruje rysunek 17.2. Warto pamiętać, że znaczna różnica pomiędzy strukturą katalogów systemu DOS oraz dysku CD wynika stąd, że obszar systemowy płyty CD zawiera bezpośrednie adresy plików w podkatalogach, co pozwala napędowi CD na szybkie wyszukiwanie danych znajdujących się na spiralnej ścieżce. Ponieważ płyta CD z danymi jest w rzeczywistości taką właśnie jedną, długą, spiralną ścieżką, nawet jeśli mowa jest o wielu ścieżkach takiej płyty, w rzeczywistości chodzi o różne fragmenty (czyli segmenty lub sektory) tej jedynej na płycie spiralnej ścieżki.
CD-DA (cyfrowe audio) CD-DA to napędy, które mogą czytać zarówno dane, jak i audio. Praktycznie każdy obecnie sprzedawany napęd odczytuje oba te rodzaje dysków, przy czym format zapisanych danych jest sprawdzany przez odczyt pierwszej ścieżki dysku. Większość napędów dostarczana jest wraz z oprogramowaniem audio CD, umożliwiającym odtwarzanie muzyki z płyty audio CD za pomocą komputera. Dźwięków (muzyki) można słuchać przez słuchawki lub z głośników, za
pośrednictwem zainstalowanej karty dźwiękowej. Wraz z niektórymi napędami CD dostarczane są wtyczki, które należy wetknąć do odpowiedniego wejścia dowolnego wzmacniacza.
CD-ROM XA, czyli Architektura rozszerzona CD-ROM XA, czyli Architektura rozszerzona, jest formatem zgodnym wstecz ze standardami High Sierra oraz ISO 9660. Nadaje on nowy wymiar światu technologii CD-ROM: nagrywanie w wielu sesjach (multiple session)
Wielosesyjność Jak pamiętamy z dyskusji o formacie High Sierra, każdy dysk CD-ROM zawiera w obszarze systemowym tabelę VTOC (Volume Table ofContents), w której znajdują się informacje dla czytnika o tym, gdzie i jak dane są ułożone na dysku. Aż do tego momentu wszystkie dane na płytce musiały być kodowane jako jedna sesja. Innymi słowy, gdy płytka była przygotowywana, wszelkie zapisywane na niej dane musiały się znaleźć wjednej sesji. Przy zastosowaniu takiego formatu nie było możliwości późniejszego powrotu i dopisania nowych danych. Jednosesyjne napędy CD nie są już jedynym dostępnym wyborem. Format CDROM XA daje możliwość tworzenia na pojedynczym dysku wielu sesji, każdej z własną tabelą VTOC. Napęd zgodny ze standardem CD-ROM XA potrafi odszukać dodatkowe tabele VTOC rozlokowane w różnych miejscach dysku i odczytać dane z różnych sesji. To oznacza, że możesz zapisać na dysku pewną ilość danych, wyjąć go z napędu, po czym włożyć w celu dopisania kolejnych danych - tak długo, aż płytka całkowicie się zapełni. To znaczne usprawnienie od czasu dysków jednosesyjnych, w których trzeba było czekać na zebranie odpowiedniej ilości danych, aby wypalanie było opłacalne -bowiem niezależnie od ilości zapisanych danych, operacji zapisu można było dokonać jedynie raz.
Przeplatanie Napęd zgodny ze specyfikacją CD-ROM XA używa techniki znanej jako przeplatanie. Specyfikacja ta wymaga od napędów z nią zgodnych, aby na dysku za znakiem identyfikacji CD-ROM-u mogły być kodowane zarówno grafika, dźwięk, jak i tekst, przy czym jako grafikę rozumie się tu obrazy, animacje oraz nagrania wideo. Oprócz tego napęd musi umożliwiać odczytywanie tych bloków, gdy są wzajemnie poprzeplatane. Na przykład ścieżkę może rozpoczynać ramka wideo, po której byłby zapisany segment audio towarzyszący tej ramce, a za nią jeszcze jedna ramka i towarzyszący jej dźwięk. Fragmenty audio i wideo odtwarzane są kolejno przez napęd, a odczytane informacje -buforowane w pamięci i wysyłane do komputera w celu ich zsynchronizowania. Krótko mówiąc, dane odczytywane są z dysku naprzemiennie, według kolejności ich zapisania, a następnie synchronizowane podczas ich odtwarzania w taki sposób, że efektem jest jednoczesna prezentacja całości.
Modę l i Modę 2, Form l i Form 2 Aby osiągnąć ten poziom funkcjonalności, format CD został podzielony na warstwy odnoszące się do typów danych. Modę 1 to standardowy sektor Yellow Book CD z korekcją błędów. Każdy 2 352-bajtowy sektor składa się z czterech pól (rysunek 17.3): • Synchronizacji (12 bajtów) • Nagłówka (8 bajtów) • Danych użytkownika (2 048 bajtów) • Kodu korekcji błędów (ECC, Error Correction Code) oraz kodu detekcji błędów (EDC, Error Detection Code) (284 bajty) Synchronizacja Nagłówek
Dane użytkownika
ECC i EDC
(8 bajtów)
(2 048 bajtów)
(284 bajty)
(12 bajtów)
Rysunek 17.3. Format sektora CD-ROM Modę 2, zdefiniowany dla formatu XA, to dane CD bez korekcji błędów. Ścieżka Modę 2 umożliwia jednak występowanie zapisanych po sobie tzw. ścieżek typu Form l i Form 2, dzięki czemu możliwy jest przeplot danych. Takie przeplecione ścieżki mogą zawierać własną korekcję błędów i kontrolę typów danych. Rysunek 17.4 przedstawia wizualny podział struktury tego formatu. Sektor Modę 2 Form l zawiera sześć pól (rysunek 17.5): • Synchronizacja (12 bajtów) • Nagłówek (8 bajtów) • Podnagtówek (8 bajtów)
Rysunek 17.4. Podział formatu CD-ROM XA
Model, ECC
Modę 2, Nie-ECC
Synchroni Nagłów Pod na Dane zacja (12 ek (8 główek użytkownika (2
ECC (280
EDC (4
• Dane użytkownika (2 048 bajtów) • Kod korekcji błędu (280 bajtów) • Kod detekcji błędu (4 bajty) Sektor Modę 2 Form 2 zawiera tylko pięć pól (rysunek 17.6): • Synchronizacja (12 bajtów) • Nagłówek (8 bajtów) • Podnagłówek (8 bajtów) • Dane użytkownika (2 324 bajtów) • Kod detekcji błędu (4 bajty) Synchroni Nagłów Podnag Dane użytkownika (2 324 zacja (12 ek (8 łówek bajtów)
Rysunek 17.6. Format sektora CD-ROM Yellow Book (Modę 2, Form 2)
EDC (4
Rysunek 17.5. Format sektora CD-ROM Yellow Book (Modę 2, Form l)
Oba formaty zawierają pole podnagłówka identyfikujące typ informacji (takich jak dźwięk lub wideo) znajdujących się w polu danych użytkownika. Sektor Form 2 nie posiada pola korekcji błędów z sektora Form l, przez co uległo powiększeniu pole danych użytkownika. Ponieważ zawierają mniej danych kontrolnych, płyty CD-ROM wykorzystujące format sektorów Modę 2 Form 2 (takie jak płyty MPEG video) mogą pomieścić więcej danych użytkownika niż inne formaty płyt o tej samej ilości sektorów, dając w wyniku prędkość przesyłu danych rzędu 172 kB/s zamiast standardowych 150 kB/s. Aby napęd mógł być rzeczywiście zgodny ze standardem XA, dane kodowane w formacie 2 na dysku audio muszą być zgodne ze specyfikacją audio ADPCM (Adaptive Differential Pulse Code Modification) - określającą specjalny sposób kompresji i kodowania danych audio. Wymaga ona, by napęd lub kontroler SCS1 wyposażony był w procesor sygnałów dekompresujący sygnały audio podczas procesu synchronizacji. Oznacza to, że niektóre obecnie produkowane napędy mogą być częściowo tylko zgodne ze standardem XA. Mogą być zdolne do przeplatania danych i odczytywania dysków wielosesyjnych, lecz nie posiadać elementu audio ADPCM na dysku lub jego kontrolerze. Kiedy autor pisał niniejszą książkę, jedynymi napędami w pełni zgodnymi z XA były napędy produkowane przez IBM i Sony. W napędach firmy Sony chipy ADPCM umieszczane były bezpośrednio w napędzie. Natomiast napędy IBM XA, montowane w wysokiej klasy systemach IBM PS/2, współpracowały z firmową magistralą IBM-a o nazwie Micro Channel Bus. Producenci różnych napędów czasem informują, że ich produkty są „przystosowane do XA", co najczęściej oznacza tyle, że potrafią one odczytywać dyski wielosesyjne oraz tryb l i 2, a także formę l i 2, lecz nie są wyposażone w chip ADPCM. Format XA rozwija się dość dynamicznie. Twórcy oprogramowania, tacy jak Kodak, stale produkują kolejne tytuły w tym formacie. IBM zdążył ich wydać już kilka, a następni zapewne również podążą tym śladem. Jeśli masz dysk w pełni kompatybilny co do trybu i formy oraz odczytujący dyski wielosesyjne, jest to prawdopodobnie jeden z najlepszych obecnie dostępnych na rynku dysków. XAjest bowiem specyfikacją, która nie doczekała się jeszcze szerokiej akceptacji. To, co format ten umożliwia sprzętowo, możliwe jest również do uzyskania za pomocą programów takich jak aplikacje MPC (Multimedia PC) działające w systemie Windows.
CD z mieszanymi rodzajami ścieżek Istnieje kilka formatów zapisu dysków CD-ROM, łączących różne rodzaje sektorów na jednym dysku. Zazwyczaj zapisu dokonuje się przy użyciu standardowego formatu audio CD oraz danych CD-ROM. Tak zapisany dysk może zawierać do 98 ścieżek audio, a także ścieżkę danych, zazwyczaj zapisaną w trybie XA Modę 2. Na niej zapisane są różne informacje. Mogą to być słowa piosenek, zdjęcia, teledyski i inne. Tak zapisany dysk może być odczytywany zarówno przez czytnik CD-ROM, jak i czytnik audio. Jednak podstawowym problemem występującym w pracy z takim dyskiem jest możliwość błędnego potraktowania danych jako ścieżki muzycznej. W rezultacie może dojść do uszkodzenia głośników. Różni producenci starali się rozwiązać ten problem w różny sposób. Efektami ich starań były między innymi formaty: CD-ROM Ready, Enhanced Musie CD, CD Extra oraz CD Plus.
CD-ROM Ready CD-ROM Ready jest jednym z rozwiązań tego problemu. Polega na ukryciu ścieżki danych przed pauzą rozpoczynającą ścieżkę muzyczną. Taki dysk, wsunięty do czytnika audio, zostanie odczytany z pominięciem owej ścieżki danych. Rozwiązanie to wydaje się w pełni zadowalające, jednak istnieje możliwość, że słuchacz, przewijając zawartość dysku do początku, „przekroczy" rozpoczęcie ścieżki muzycznej i wejdzie w obszar zapisanych danych komputerowych. Jak widać, nie jest to rozwiązanie bezpieczne w stu procentach.
Enhanced Musie CD Philips oraz Sony, we współpracy z innymi firmami, takimi jak Microsoft i Apple, zaprojektowały inne rozwiązanie, specyfikację Enhanced Musie CD, zdefiniowaną jako tzw. standard Blue Book. Płyty wytwarzane zgodnie z tą specyfikacją są często sprzedawane pod nazwą CD Plus lub CD Extra i wykorzystują technologię oddzielnych sesji zdefiniowaną w standardzie CD-ROM XA w celu oddzielenia ścieżek danych i audio. Czasem na płytce nie ma żadnych informacji i możesz nawet nie wiedzieć, że zawiera dane, dopóki nie odtworzysz jej w napędzie CDROM. Pierwsza sesja na płytce CD Plus zawiera do 98 standardowych ścieżek dźwiękowych Red Book, podczas gdy druga sesja zawiera pojedynczą ścieżkę składającą się z sektorów standardu CD-ROM XA Modę 2. Ponieważ odtwarzacze CD potrafią odczytać tylko pierwszą sesję, odtwarzają jedynie ścieżki dźwiękowe i ignorują dodatkową sesję zawierającą dane XA. Jednak odpowiedni napęd zainstalowany w komputerze potrafi odczytać obie sesje, dzięki czemu oprócz ścieżek audio można odczytać także dane zapisane w drugiej sesji.
PhotoCD Format ten został wynaleziony przez firmę Kodak w 1990, lecz nie był dostępny aż do roku 1992. Napędy zgodne z tym standardem, pozwalają podczas odtwarzania muzyki wyświetlać na ekranie monitora zarejestrowane uprzednio obrazy. W punkcie Kodaka zostawiasz tylko rolkę filmu ze zdjęciami, by po jakimś czasie odebrać gotowy dysk PhotoCD, wrzucić go do odtwarzacza zgodnego z PhotoCD i oglądać zdjęcia wspominając dawne, dobre czasy. Tylko jaki odtwarzacz jest zgodny z PhotoCD? PhotoCD to element systemu audiowizualnego przeznaczony do odtwarzania zarówno dysków PhotoCD, jak i płyt audio. Ze względu na to, że wszystkie napędy CD obsługujące dane mogą również obsługiwać płyty audio, do odtwarzania płyt PhotoCD niekoniecznie trzeba używać odtwarzaczy Kodaka. Oczywiste wydaje się, że każdy odtwarzacz odczytuje pierwszą ścieżkę i określa typ załadowanego doń dysku. Prawdziwy przełom polega na tym, że napęd PhotoCD potrafi określić liczbę zapisanych na dysku poszczególnych „sesji" - w jego przypadku sesji fotograficznych. Podczas omawiania formatu High Sierra wspominałem o VTOC (ang. Yolume Table of Confents), czyli Tabeli zawartości dysku, która informuje odtwarzacz o miejscu i sposobie zapisania danych na dysku. Dość długo - do niedawna - dane umieszczane na płycie musiały być zapisywane podczas jednej tylko sesji. Innymi słowy, podczas produkcji CD trzeba było za jednym razem nagrać wszystkie mające się na nim znaleźć informacje, gdyż nie było sposobu późniejszego ich dopisania. Przyczyną tego stanu rzeczy był fakt, że ani format, ani nośnik nie umożliwiały dopisywania dodatkowych informacji do już znajdujących się na dysku. Na płytach zgodnych z formatem PhotoCD lub z poniżej opisanymi
formatami XA oraz CD-I można nie tylko zapisać wiele sesji, lecz również je odczytać. Aby to jednak było możliwe, napęd musi być zdolny do odnajdywania wielu tabel VTOC związanych z dołączanymi później sesjami. Stąd również pewne zamieszanie, z którym mogli spotkać się niektórzy z nas. Kiedy bowiem Kodak wprowadzał na rynek dyski PhotoCD, firma ta twierdziła, że aby napęd mógł je odczytywać, musi być zgodny z formatem CD-ROM XA. XA (ang. Extended Architecture) oznacza tu rozszerzoną architekturę. W styczniu 1992 roku Kodak przetestował napędy niezgodne z formatem XA wyposażone w nowe sterowniki oprogramowania i zatwierdził je jako obsługujące jednosesyjne dyski PhotoCD. Tego typu napędy, niezależnie od tego, co sugeruje ich nazwa, mogą odczytywać zawsze tylko pierwszą sesję PhotoCD i ignorują wszelkie dane oraz wpisy do tabeli zawartości dysku nie zapisane podczas tej sesji. Zwykłe napędy CD-ROM oparte na technologii PC, o ile zaopatrzone są w odpowiedni sterownik urządzenia i oprogramowanie Kodaka, również mogą odczytywać jednosesyjne dyski PhotoCD. Kodak udziela licencji na „przeglądarkową" część oprogramowania, która może być dołączana do istniejących pakietów oprogramowania. W celu wykorzystania obrazów zarejestrowanych na PhotoCD w małej poligrafii, w przetwarzaniu tekstów i komputerowych programach graficznych, tworzone są specjalne filtry (zwane również dekoderami) pozwalające importować obrazy PhotoCD do różnego typu dokumentów. Kodak zamierza wprowadzić do istniejącego formatu fotograficznego zsynchronizowane formaty audio oraz tekstowe. Aby napęd mógł odczytać dyski tego rodzaju, musi spełniać wymogi formatu XA. Podobnie, tylko napęd zgodny ze specyfikacjami XA może czytać dyski wielosesyjne.
Tworzenie dysków PhotoCD Odbywa się to w następujący sposób. Po zostawieniu filmu w odpowiednim punkcie Kodaka, film zostanie wywołany, a poszczególne zdjęcia odbite, tak jak jest to standardowo wykonywane. Po zrobieniu odbitek, szybkobieżne stacje SUŃ SparcStations, działające w systemie UNIK, skanują te odbitki z bardzo wysoką rozdzielczością. Każde zdjęcie zawiera bardzo dużą ilość informacji -jedna kolorowa odbitka może zajmować 15-20 MB przestrzeni na dysku. Przed zapisaniem na dysku obraz jest kompresowany przy użyciu własnego oprogramowania Kodaka. Skompresowane obrazy są następnie nagrywane na specjalnych zapisywanych płytach CD. Skończony produkt pakowany jest w znajome pudełka i wysyłany do lokalnego punktu Kodaka, skąd możesz go odebrać. Mimo że zeskanowane obrazy zajmują znaczną ilość przestrzeni na dysku, pojemność dysku CD pozwala na swobodne zapisanie 100 obrazów z bardzo wysoką rozdzielczością. Ponieważ dzisiejsza telewizja, a nawet większość komputerów osobistych nie pozwala na korzystanie z takich rozdzielczości, typowy dysk PhotoCD na potrzeby domowe zmieści wiele setek dobrej jakości zdjęć. Więcej szczegółów znajdziesz w tabeli 17.3. Ponieważ większość z nas rzadko wywołuje taką liczbę zdjęć za jednym razem, Kodak, we współpracy z Philipsem, rozwinął system powalający zapisywać na jednym dysku wiele sesji. Dzięki temu do zdjęć z urlopu nad morzem, zapisanych na CD-ROM-ie we wrześniu, dołączyć można - na przykład w lutym następnego roku - zdjęcia z nart, i tak dalej, aż do całkowitego zapełnienia dysku.
Rodzaje dysków PhotoCD Obrazki na dysku są skompresowane i zapisane przy pomocy własnego formatu kodowania PhotoYCC Kodaka, który zawiera do sześciu różnych rozdzielczości dla każdego obrazka, zebranych w tabeli 17.3. Kodak zdefiniował kilka różnych
typów dysków PhotoCD, odpowiadających potrzebom różnych typów użytkowników. Standardowym formatem jest PhotoCD Master, który może zawierać do 100 zdjęć we wszystkich roz-dzielczościach pokazanych w tabeli, z wyjątkiem rozdzielczości o podstawie x64. Tabela 17.3. Rozdzielczości PhotoCD Podstawa /16 /4 xl x4 xl6 x64
Rozdzielczość (w pikselach) 128 x 192 256 x 384 512x768 1024 x 1536 2048 x 3072 4096x6144
Opis Miniatura Miniatura Rozdzielczość telewizyjna Rozdzielczość HDTV Rozmiar do druku Jedynie na płytkach Pro PhotoCD Master Różne rozdzielczości służą do dostarczania obrazków odpowiednich dla różnych aplikacji. Jeśli na przykład chcesz zamieścić obrazek PhotoCD na stronie WWW, prawdopodobnie wybierzesz niższą rozdzielczość. Z drugiej strony, profesjonalny fotograf chcący zapisać zdjęcie reklamowe przeznaczone do druku wybierze najwyższą dostępną rozdzielczość. Dyski Pro PhotoCD Master są przeznaczone dla profesjonalnych fotografów korzystających z filmów o większym formacie, na przykład 70 mm, 120 mm czy 4x5 cali. Na dyskach tego typu można zapisać obrazki o jeszcze większej rozdzielczości (4096 x 6144 pikseli), oprócz formatów dostępnych na dyskach PhotoCD Master. Z powodu dużych rozmiarów takich obrazków, dysk tego typu może pomieścić od 25 do 100 zdjęć, w zależności od formatu filmu. Dyski PhotoCD Portfolio są przeznaczone do nagrywania interaktywnych prezentacji wykorzystujących dźwięk i inne elementy multimedialne. W tym wypadku nie są potrzebne obrazki o najwyższej rozdzielczości, zajmujące najwięcej miejsca, więc płyty tego typu mogą zawierać do 700 obrazków, w zależności od tego, jak duża jest pozostała zawartość dysku. Dyski PhotoCD Catalogue zawierają obrazki o jeszcze niższej rozdzielczości, zaprojektowane w celu wyświetlania jako miniatury. Na pojedynczym dysku można zapisać do 600 obrazków tego typu. Dyski Print PhotoCD są przeznaczone do użycia w poligrafii i zawierają te same pięć rozdzielczości, co dyski PhotoCD Master plus niezależne od platformy obrazy CMYK, które mogą być stosowane w praktycznie każdym oprogramowaniu do obróbki i wydruku obrazów.
Wielosesyjność Jedną z najważniejszych cech PhotoCD jest możliwość zapisania na każdym z dysków kilku różnych sesji. Ponieważ przeciętny użytkownik zwykle nie robi wystarczającej ilości zdjęć, aby zapełnić cały dysk, możesz przynieść częściowo wypełniony dysk za każdym razem, gdy masz do wywołania nowy film. Na płytce zapisywana jest wtedy kolejna sesja, aż cały dysk zostanie wypełniony. Za wywołanie filmu płacisz wtedy mniej, gdyż nie jest potrzebny nowy dysk, a wszystkie Twoje zdjęcia są przechowywane na mniejszej liczbie dysków. Kolejne sesje na dysku PhotoCD mogą być odczytane w każdym napędzie zgodnym ze standardem CD-ROM XA, a jeśli napęd nie potrafi odczytywać dalszych sesji, zawsze możesz odczytać pierwszą z nich. W takim przypadku powinieneś kupować nowy dysk dla każdej wywoływanej grupy zdjęć, jednak w dalszym ciągu możesz korzystać z technologii PhotoCD. Kodak udostępnia oprogramowanie umożliwiające przeglądanie zdjęć PhotoCD na ekranie komputera osobistego; sprzedaje także odpowiednie licencje producentom oprogramowania desktop publishing, obróbki obrazów oraz programów rysunkowych. To oznacza, że zdjęcia PhotoCD możesz modyfikować i obrabiać, przy pomocy programów takich jak Adobe Photoshop, czy łączyć je z dokumentami do wydruku w programach układu strony, takich jak Adobe PageMaker.
CD-R Format ten znany jest jako CD-WORM, CD-WO lub CD-R i niezależnie od nazwy umożliwia nagrywanie własnych płyt CD. Tak jak w przypadku nagrywania każdego dysku CD-R, dane muszą przed zapisaniem zostać odpowiednio sformatowane. W przypadku komputerów PC dane przygotowywane są na dyskach twardych lub innych nośnikach magnetycznych i przenośnych. CD-R jednak nie jest zwyczajnym dyskiem. Mimo że mówi się często o „paleniu" dysków, to informacje nie są na nich zapisywane w wyniku wypalania rowków w warstwie nośnika, lecz w wyniku podgrzewania tej warstwy za pomocą wiązki światła. Nośniki CD-R pokryte są barwnikiem o takich samych własnościach odbijania światła, jak normalne dyski CD. W związku z tym napęd CD-ROM widzi ścieżkę nie nagranego dysku CD-R jako jedną długą gładź. Dane na płycie CD-R „wypalane" są przy użyciu lasera nagrywarki, który nagrzewa warstwę złota i znajdującą się pod nią warstwę barwnika. Podgrzanie tych warstw powoduje zmiany termiczne, w wyniku których światło lasera odczytującego dane odbijane jest od miejsc zmienionych w dokładnie taki sam sposób, jak od rowków szklanych matryc czy płyt CD masowej produkcji. Czytnik informuje wtedy o istnieniu rowka w miejscu, w którym w wyniku podgrzania obu warstw zaszła reakcja chemiczna zmniejszająca jego współczynnik odbicia, mimo że na żadnej warstwie płyty nie ma ani jednego rowka. Wiele nowszych napędów nagrywających dane na płytach CD-R obsługuje zapisywanie we wszystkich wspomnianych dotychczas formatach: od ISO 9660 po CD-ROM XA. Oprócz tego, napędy te potrafią czytać wszystkie te formaty i mogą z powodzeniem służyć jako odtwarzacze dysków CD-ROM. Ich ceny stale spadają i ostatnio wynoszą 1500-2000 złotych za napęd i 5-10 złotych za czysty dysk CD-
R. Dzięki niskim cenom nawet małe przedsiębiorstwa mogą swobodnie rozprowadzać swoje bazy danych na dyskach CD-ROM. Po utworzeniu płyty wzorcowej, koszt wytworzenia jednej płyty jest niewiele większy od ceny nośnika, co znacznie obniża koszty dystrybucji danych i tym samym umożliwia ją praktycznie każdej firmie.
CD-E Dyski CD-R można nagrywać tylko raz. Ale istnieją dyski, na których dane można nagrywać wielokrotnie i wielokrotnie je stamtąd usuwać. Tego typu dyski wprowadzone zostały przez firmy Philips Electronics oraz Ricoh i nazwane CD-E (od ang. CD-Erasable - kasowalne CD). Dyski CD-E stały się standardem rozwijanym i obsługiwanym przez ponad 10 producentów, w tym przez takie Firmy jak IBM, Hewlett-Packard, Mitsubishi, Matsushita, Sony, 3M, Ołympus, Philips i Ricoh (czyt. standardem z przyszłością). Żywotność nowego typu nośnika szacowana jest na ponad 10 lat, czyli w przybliżeniu 10 000 dostępów i przynajmniej 1000 nadpisań danych. Nie został on zaprojektowany w celu zastąpienia magnetycznych nośników danych, ale w celu uzupełnienia ich w zakresie archiwizacji danych. Nośniki mają niższy współczynnik odbijalności świetlnej niż standardowe CD-ROM-y, co wymaga od napędów pięciokrotnego zwiększenia mocy odczytywania w stosunku do zapisu. Ta nowa technologia jest zgodna wstecz zarówno ze standardowym formatem CD, jak i technologią CD-R, co oznacza, że napędy CD-E mogą czytać oba te rodzaje dysków. Napędy, o których mowa, będą najprawdopodobniej z początku dosyć drogie, ale po obniżeniu ich ceny powinny się stać popularnym (i jakże wygodnym) sposobem archiwizowania danych.
DVD Jednak przyszłość technologii CD-ROM należy do DVD (Digital Versatile Disc). Jest to nowy standard, który w znaczny sposób podnosi pojemność, a zatem i spektrum zastosowań CD-ROM-ów. Największym problemem dzisiejszej technologii CD-ROM, przy stale zwiększających się rozmiarach aplikacji i plików danych, są ograniczone pojemności dysków CD-ROM, które mogą pomieścić maksymalnie około 680 MB danych, co może się wydawać wiele, ale naprawdę nie jest - zwłaszcza, gdy wziąć pod uwagę rozmiary przyszłych aplikacji wideo. Jednym z podstawowych zastosowań wyznaczonych nowemu standardowi DVD jest zastąpienie kaset wideo. W przyszłości zamiast wypożyczać kasetę z wypożyczalni, można będzie kupić lub wypożyczyć film nagrany na CD-ROM-ie. Technologia DVD będzie więc miała zastosowanie nie tylko w przemyśle komputerowym, ale również rozrywkowym.
Historia DVD W 1995 roku pojawiły się dwa konkurujące ze sobą o przyszły rynek standardy: jeden, o nazwie „Multimedia CD", wprowadzony i popierany przez Sony i Philips, i drugi, nazwany „Super Density" (SD), wymyślony i wspierany przez Toshiba, Time Wamer i kilka innych firm. Gdyby standardy te nadal konkurowały ze sobą, to zarówno konsumenci, jak i producenci przemysłów rozrywkowego i komputerowego wiecznie staliby przed problemem wyboru jednego z nich. Obawiając się powrotu problemów znanych z rozdwojenia technologii wideo (między Beta i VHS) wiele organizacji, w tym Hollywood Video Disc Advisory
Group oraz Computer Industry Technical Working Group, zrzeszyło się i konsekwentnie odmawiając przyjęcia którejkolwiek z konkurujących propozycji, nalegało na utworzenie jednego formatu. Dzięki tej inicjatywie, obie grupy producentów porozumiały się co do formatu nowego dysku CD-ROM już we wrześniu 1995. Nowy standard, nazwany DVD (Digital Versatile Disc - ang. dosłownie „Cyfrowy Wszechstronny Dysk"), łączy elementy obu proponowanych uprzednio standardów. Pojedynczy standard DVD pozwolił uniknąć powtórzenia błędu VHS/Betamax i dał producentom oprogramowania, producentom sprzętu i producentom filmowym pewność, że wszystkie produkty zgodne z DVD będą współdziałać bez problemów.
Specyfikacje DVD W tej chwili technologia DVD umożliwia pomieszczenie 4,7 GB danych na jednostronnym, jednowarstwowym dysku tej samej średnicy (czyli 120 mm) i połowy grubości (czyli 0,6 mm) dzisiejszego CD-ROM-u. W połączeniu z kompresją MPEG-2 (Motion Picture Experts Group), wystarcza to na zapisanie do 135 minut pełnoekranowego i pełnometrażowego filmu fabularnego włącznie z trzema kanałami audio (o jakości CD) i czterema kanałami dla podtytułów. Pojemność ta nie jest oczywiście żadnym zbiegiem okoliczności; format DVD utworzony został bowiem głównie z myślą o przemyśle filmowym, który od dawna już szukał nośnika tańszego i trwalszego od kasety wideo. W niedalekiej przyszłości natomiast płyty DVD mają składać się z dwóch warstw o pojemności 9,4 GB po każdej z dwóch stron dysku, co umożliwi zapisanie na jednym CDROM-ie 18,8 GB informacji (blisko 30 razy więcej niż na dziś standardowej płycie CD-ROM). Wprowadzana właśnie technologia laserów o wiązce niebieskiej wkrótce pozwoli na dalsze kilkakrotne zwiększenie tej pojemności. Przy swojej pojemności napędy DVD są również dosyć szybkie. Standardowa szybkość transferu danych dla napędów DVD wynosi 1,3 MB/s, czyli jest w przybliżeniu równa transferowi napędu CD-ROM o szybkości 9x. Napędy DVD będą w pełni zgodne wstecz i, tak jak dzisiejsze CD-ROM-y, będą również umożliwiać odtwarzanie płyt audio CD. Podczas odtwarzania standardowych CD-ROM-ów, wydajność napędu będzie odpowiadać wydajności napędu 4x CD-ROM. Użytkownicy, którzy mają napędy 4x CD-ROM, zamiast kupować szybszy napęd CD-ROM mogą więc poczekać na pojawienie się napędów DVD. Większość produktów wymagających szybkości większej niż 4x będzie bowiem w przyszłości wydawana najprawdopodobniej nie na płytach CDROM, lecz właśnie na płytach DVD. Aby skorzystać z dobrodziejstw technologii DVD, potrzebna jest karta graficznodźwiękowa obsługująca format MPEG-2 oraz trzy formaty audio DVD. Tego typu urządzenia powinny być dostępne razem z napędami DVD. Ważne jest aby zrozumieć różnicę pomiędzy standardem DVD-Video a DYD-ROM. Dyski DVD-Video zawierają jedynie sekwencje wideo i są przeznaczone do odtwarzania w odtwarzaczach DVD, podłączonych do telewizora i, być może, do zestawu audio. DYD-ROM to nośnik do przechowywania danych, przeznaczony do wykorzystania w komputerach. Różnica jest mniej więcej taka jak w przypadku muzycznych płytek CD i płytek CD-ROM. Komputery mogą odtwarzać muzyczne płytki CD, ale odtwarzacz CD w wieży nie potrafi odczytać płytki CD-ROM.
W przyszłości mają się pojawić dwuwarstwowe dyski DVD o pojemności 8,5 GB
oraz dyski dwustronne mieszczące 9,4 GB przy jednej warstwie i 17 GB przy dwóch warstwach. Tak duża pojemność dysku DVD wynika z kilku czynników, do których należą: • Mniejsza długość wgłębień (około 2,08 razy, z 0,972 do 0,4 mikrona) • Zredukowany odstęp między ścieżkami (około 2,16 razy, z 1,6 do 0,74 mikrona) • Większy obszar danych na dysku (około l ,02 razy, z 86 do 87,6 cm2) • Bardziej efektywna modulacja kanału bitów (około 1,06 razy) • Bardziej efektywny kod korekcji błędów (około 1,32 razy) • Mniejszy narzut sektora (około 1,06 razy, z 2048/2352 do 2048/2060 bajtów) Napędy DVD używają lasera o krótszej długości fali w celu odczytywania wgłębień i wzniesień o mniejszej długości. Płyty DVD mogą podwoić pojemność poprzez wykorzystanie obu stron dysku i podwoić ją jeszcze raz, poprzez zastosowanie dwóch oddzielnych warstw na każdej stronie. Druga warstwa danych jest zapisana pod pierwszą, która jest półprzepuszczalna w celu umożliwienia dostępu do drugiej warstwy. Skupiając promień lasera na dwóch różnych głębokościach, na powierzchni o tej samej wielkości można odczytać prawie dwukrotnie większą ilość danych. Dzięki zastosowaniu niebieskiego lasera, ta pojemność może w przyszłości jeszcze wzrosnąć. Oprócz tego, napędy DVD są bardzo szybkie w porównaniu z obecną technologią CD-ROM. Standardowa prędkość przesyłu danych to 1,3 MB/s co w przybliżeniu odpowiada napędowi CD-ROM o 9-krotnej prędkości. Czasy dostępu mieszczą się w granicach 150 - 200 ms, przy prędkości transmisji w trybie burst osiągającej ponad 12 MB/s. Dyski DVD wirują z podstawową prędkością mniej więcej trzy razy większą niż w przypadku napędów CD-ROM o pojedynczej prędkości. Obecnie dostępne są napędy DVD o dwukrotnej prędkości, słychać także pogłoski o napędach o pięciokrotnej prędkości. Napędy DVD są podłączane do interfejsów IDE/ATA oraz SCSI, podobnie jak napędy CD-ROM, a także posiadają gniazda audio dzięki którym przy pomocy słuchawek można w nich odtwarzać muzyczne płytki CD. Napędy DVD będą w pełni zgodne wstecz i jako takie będą mogły odczytywać obecne płyty CD-ROM oraz muzyczne płytki CD. Podczas odtwarzania istniejących płyt CD-ROM, wydajność napędu będzie odpowiadać obecnym napędom CD-ROM o czterokrotnej prędkości. Tak więc, użytkownicy posiadający obecnie napędy o czterokrotnej prędkości powinni rozważyć zakup napędu DVD zamiast nowego napędu CD-ROM o sześciokrotnej prędkości. Paru producentów oprogramowania wyraziło już chęć przeniesienia swoich produktów z płytek CD-ROM na płytki DVD. Być może za kilka lat płyty DVD wyprą płyty CD-ROM, podobnie jak płyty CD wyparły w latach osiemdziesiątych czarne płyty winylowe. Wielu sprzedawców komputerów osobistych opcjonalnie montuje napędy DVD w sprzedawanych przez siebie komputerach. Typowy zestaw zawiera także kartę dekodera MPEG-2 przeznaczoną do odtwarzania skompresowanych filmów zapisanych na dyskach DVD. Dzięki temu procesor nie musi już wykonywać złożonych obliczeń związanych z dekodowaniem MPEG i możliwe jest odtwarzanie w czasie rzeczywistym pełnoekra-nowych filmów wideo. Niektórzy producenci kart graficznych zaczęli umieszczać sprzętowe dekodery MPEG w swoich produktach. Te karty posiadają tzw. akcelerację DVD MPEG-2, jednak niektóre z zadań dekodowania w dalszym ciągu wykonywane są
programowo. Wszelkie obliczenia związane z programowym dekodowaniem MPEG znacznie obciążają system i w związku z tym mogą dawać wynik mniej niż satysfakcjonujący.
Standardy DVD DVD to młoda technologia, lecz jeśli chodzi o standardy, już jest w nich sporo zamieszania. Format DVD-ROMjest tylko jednym z wielu elementów, a wszystkie pozostałe elementy technologii także różnią się pod względem rywalizujących standardów. Standard DVD-Videojest obecnie wykorzystywany mniej więcej przez połowę przemysłu filmowego. W Ameryce Północnej i w Japonii pojawiają się filmy na płytach DVD, można także kupić pierwsze odtwarzacze DVD-Video. Jednak kilka dużych wytwórni filmowych, takich jak Paramount, Disney czy Fox, ogłosiło że ma zamiar użyć alternatywnego systemu o nazwie Divx, opracowanego przez DVE (Digital Video Express). Divx wymaga innego odtwarzacza - obecnie dostępne odtwarzacze DVD nie potrafią odczytywać dysków Divx - oraz, co bardziej szokujące, aby można było odtworzyć dysk Divx, odtwarzacz musi być podłączony poprzez modem ze skomputeryzowanym systemem rozliczającym. Choć odtwarzacz Divx może odtwarzać standardowe dyski DVD i płyty CD, chodzi o to, aby jeszcze lepiej zabezpieczyć dyski przed nielegalnym kopiowaniem przez wymaganie nawiązania modemowego połączenia. Wydaje się bardzo mało prawdopodobne aby Divx stał się standardem przemysłowym, ale nawet tak niepraktyczna alternatywa może opóźnić wprowadzenie konkurencyjnej technologii, być może o całe lata. Istnieje także konflikt pomiędzy standardami nagrywarek DVD. Obecnie najpewniejszymi kandydatami są standardy DVD-R oraz DVD-RAM, oba oparte na specyfikacji z sierpnia 1997. DVD-R jest porównywalne ze standardem CD-R, gdyż korzysta z technologii WORM i jako aktywny nośnik wykorzystuje warstwę organicznego barwnika. Pierwsze napędy DVD-R zostały opracowane przez firmę Pioneer w październiku 1997 i kosztowały po 17 tysięcy dolarów; czyste dyski kosztowały około pięćdziesięciu dolarów. DVD-RAM to wielokrotnie zapisywalny dysk korzystający z technologii zmiany fazy podobnej do wykorzystywanej w CD-RW. Jednak dyski DVD-RAM nie mogą być odczytywane w standardowych napędach DVD-ROM. Spowodowane jest to różnicami we współczynnikach odbić nośników oraz w samym formacie zapisanych danych. (Dla odróżnienia, DVD-R jest zgodny wstecz z dyskami DVDROM.) W przyszłości mają pojawić się napędy DVD-ROM potrafiące odczytywać dyski DVD-RAM. Ani napędy DVD-R ani DVD-RAM nie potrafią zapisywać dysków wykorzystując dwie warstwy, ale pojawiły się już dyski DVD-RAM umożliwiające zapis dwustronny. Niektórym producentom udało się osiągnąć pojemność standardowego, jednostronnego, jednowarstwowego dysku o pojemności 4,7 GB, jednak w większości rozwiązań pojemność nagrywanego dysku jest nieco mniejsza. Poza standardami DVD-R i DVD-RAM powstaje obecnie także kilka innych rozwiązań, znajdujących się na różnych etapach projektowania. DVD+RW, zwane także DVD Phase Change Rewritable jest konkurencyjnym formatem proponowanym przez firmy Philips, Sony o Hewlett-Packard. Jest w większym stopniu oparty na CD-RW i jest niezgodny z DVD-RAM, mimo że napędy DVD+RW potrafią odczytywać dyski DVD-ROM i płyty CD-ROM. Pioneer posiada własny format dysków wielokrotnego zapisu, zwany DVD-R/W, który także korzysta z technologii zmiany fazy i jest nieco bardziej zgodny niż DVD-RAM. Główny problem z posiadaniem zbyt wielu specyfikacji dla
podstawowej technologii polega na podziale przemysłu. Wtedy problemem jest powszechne zaakceptowanie nawet najlepszej specyfikacji, zapewniającej największe możliwości.
Multimedia CD-ROM Słowo „Multimedia" nie oznacza tu żadnego określonego standardu, lecz jest terminem opisowym. Każda płyta CD zawierająca tekst z grafiką, dźwiękiem lub obrazem wideo jest z definicji multimedialna („multi-" w znaczeniu „wielo-"). Multimedialne płyty CD produkowane sadła różnych systemów operacyjnych, takich jak DOS, Macintosh System 7, Windows, OS/2 i UNIX w wielu różnych formatach Jesienią 1991 r. konsorcjum producentów sprzętu i oprogramowania, któremu przewodziła firma Microsoft, ogłosiło utworzenie Rady ds. Marketingu Multimedia PC (Multimedia PC Marketing Councii). Rada ta przedstawiła platformę zalecaną do wprowadzania technik multimedialnych w komputerach osobistych, dzięki czemu, w miarę jak coraz to nowe firmy deklarowały chęć stosowania się do jej wymogów, coraz więcej produkowanego sprzętu i oprogramowania było zgodne z przedstawionymi w niej specyfikacjami. Rada MPC zaproponowała minima wymogów sprzętowych dla napędów CD-ROM zgodnych z MPC. Są one następujące: Szybkość transferu MPC poziom l MPC poziom 2 MPC poziom 3 danych dla poszczę- Szybkość Szybkość Szybkość gólnych specyfikacji pojedyncza napędu podwójna napędu poczwórna napędu Średni czas dostępu
l 000 ms
400 ms
200 ms
Dziś nie warto kupować napędu, który nie spełnia wymogów określonych przez poziom 3 specyfikacji MPC, a zaleca się zakup takich napędów, których wydajność jest wyższa od określonej przez ten standard. MPC CD-ROM jest konwencją, która w systemie operacyjnym Microsoft Windows umożliwia zapisywanie i synchronizowanie dźwięków, animacji, filmów oraz tekstu odtwarzanych z danych pobranych z CD-ROM-u z nią zgodnego. Microsoft stworzył interfejs programowy pozwalający producentom oprogramowania organizować dane na CD-ROM-ach w taki sposób, aby dane mogły być z nich przesyłane bezpośrednio do systemu Windows i tam przetworzone. Proszę zauważyć, że z dysków oznaczonych jako MPC w systemie Windows 3.0 lub wyższym można korzystać przy użyciu Microsoft Multimedia Extensions (MME), a w systemie OS/2 przy użyciu MMPM. Każdy napęd spełniający minimalne wymagania techniczne Rady MPC powinien odczytywać CD-ROM-y MPC. Muzyczne odtwarzacze płyt kompaktowych przesyłają dźwięk do wzmacniacza jednostajną określoną prędkością. Obecnie produkowane napędy CD-ROM podczas odtwarzania danych potrafią obracać płytą z dużo większymi prędkościami. Minimalna prędkość napędu obecnie zalecana jest równa czterokrotności tej prędkości. Korzysta z tego wiele aplikacji, takich jak filmy wideo, dla których dzięki temu strumień danych dostarczany do procesora jest stały, co pozwala na płynne przetwarzanie kolejnych klatek filmu. Niektóre sterowniki nie wyposażone w technologię wysokiej jakości, zwłaszcza te bez możliwości buforowania, będą odtwarzać filmy wideo nierówno i w sposób urywany.
Instalowanie napędu Podejmujesz decyzję co do rodzaju używanego napędu, zamawiasz go i zostaje on dostarczony do Twoich drzwi, względnie idziesz do sklepu i przynosisz go stamtąd osobiście. Co dalej? Od Ciebie zależy, czy zainstalowanie napędu CD-ROM będzie łatwe. Jeśli proces przemyślisz i zaplanujesz, powinien on przebiec bezproblemowo. Niniejszy podrozdział ma pomóc przy instalowaniu typowego napędu wewnętrznego (SCSI lub IDĘ) lub zewnętrznego (tylko SCSI), podając przy tym wskazówki, których próżno szukać w instrukcjach obsługi. Nawet zainstalowanie samego urządzenia często nie wystarcza do tego, by móc z niego korzystać (chyba że sterownik do niego dostarczany jest wraz z Windows). Często w tym celu trzeba jeszcze zainstalować specjalne oprogramowanie.
Unikanie konfliktów: poustawiaj swoje karty Niezależnie od sposobu instalowania napędu - zewnętrznego, czy też wewnętrznego -przed instalacją należy sprawdzić ustawienia kontrolera napędu CD-ROM. Najprawdopodobniej napęd CD-ROM będziesz dołączać do istniejącego już kontrolera SCSI lub IDĘ. A jeśli tak, to kontroler będzie już ustawiony tak, aby nie powodować konfliktów z pozostałymi urządzeniami systemu. Wtedy wystarczy dołączyć CD-ROM do istniejącej magistrali. Jeśli odpowiedniego kontrolera nie ma jeszcze w systemie, trzeba będzie go podłączyć i skonfigurować jego: • IRQ, • kanał DMĄ • oraz adresy portów I/O. Więcej informacji na temat konkretnych napędów IDĘ lub SCSI znajdziesz w rozdziale „Interfejsy dysku twardego".
Konfigurowanie napędu Odpowiednie skonfigurowanie nowego CD-ROM-ujest niezbędne do jego poprawnego funkcjonowania. Obejrzyj nowy napęd (patrz rys. 17.7) i znajdź umieszczone na nim zworki (jeśli są). Ustawienia zworek napędów IDĘ są zwykle następujące: Slave Master Rysunek 17.7.
Zlącza interfejsu typowego wewnętrznego napędu IDĘ CD-ROM
4-pinowe (stykowe) złącze zasilania
• jako napęd podstawowy (master) na dodatkowym złączu IDĘ, • jako napęd dodatkowy (slave) do napędu dysku twardego. Jeśli napęd CD-ROM ma być jedynym dodatkowym interfejsem EIDE, fabryczne ustawienia zworek są najczęściej odpowiednie (patrz rys. 17.8) i nie trzeba ich zmieniać. Rysunek 17.8. Wbudowany interfejs EIDE : glównym i dodatkowym :ląc:em IDE
Dodatkowe złącze IDE Główne złącze IDE
Jeśli jednak chcesz używać CD-ROM-u jako napędu dodatkowego, czyli jako drugiego na określonej magistrali IDĘ, upewnij się, że jego zworki określają go jako napęd „slave", a dysk twardy ustaw jako napęd „master". W większości przypadków napęd CD-ROM określony zostanie jako następny dysk logiczny. Jeśli w komputerze zainstalowany masz jeden dysk twardy z jedną tylko partycją, napędowi CD-ROM przypisana zostanie najpewniej litera „D:". Napędy SCSI są nieco łatwiejsze do ustawienia, ponieważ wystarczy wybrać dla urządzenia odpowiedni numer identyfikacyjny ID. Zwykle dysk startowy (najczęściej dysk C:) w systemie SCSI określony jest jako 1DO, a kontroler ma numer ID7. Każdemu urządzeniu przypisać można jednak dowolny numer ID. Jeśli napęd SCSI przyłączony jest na końcu szyny SCSI, będzie również trzeba dokonać terminacji napędu. Napęd SCSI CD-ROM można zainstalować w systemie z dyskiem twardym typu IDE/EIDE. Napęd CD będzie wtedy wymagać podłączenia do kotrolera SCSI. Niektóre karty muzyczne mają wbudowane złącze SCSI.
Podłączanie zewnętrznego napędu (SCSI) CD-ROM Rozpakuj ostrożnie napęd CD-ROM. W opakowaniu napędu zewnętrznego powinny się znajdować następujące elementy: • napęd CD-ROM, • kabel kontrolera SCSI, • kontroler SCSI (opcjonalnie). Elementy te stanowią minimum niezbędne do uruchomienia napędu. W pudełku mogą również być zamieszczone: kasetka na płytę CD (o ile napęd używa kasetowego mechanizmu ich ładowania), podręcznik użytkownika lub instrukcja obsługi do kontrolera oraz płyta CD przedstawiająca możliwości napędu. Spójrz na miejsce, w którym znajduje się komputer. Gdzie będzie się znajdował napęd CD? Czy kabel SCSI jest wystarczająco długi? Pamiętaj, że napęd trzeba jeszcze będzie podłączyć do źródła zasilania. Wtyczkę zasilania napędu dobrze wetknąć w listwę gniazd elektrycznych z ochroną przed spadkami napięcia. Jeden koniec dostarczonego z napędem kabla SCSI wetknij w odpowiednie gniazdo napędu, a drugi - do złącza SCSI kontrolera. Większość napędów zewnętrznych ma z tyłu dwa złącza - z komputerem mogą być połączone przez dowolny z nich (patrz rys. 17.9). Możliwość podłączenia dodatkowego złącza omówiona jest w punktach zamieszczonych poniżej. Jeśli gniazda kontrolera lub napędu zaopatrzone są w metalowe klipsy, połączenie zabezpiecz za ich pomocą. Po stronie kontrolera niektórych kabli SCSI dostarczanych z 16-bitowymi kontrolerami Future Domain znajduje się mikrozłącze, które wystarczy wcisnąć w odpowiednie miejsce. Rysunek 17.9. Zlącza SCSi napędu CD-ROM starszego typu Centronics
Zewnętrzne złącza SCSI CD Z tyłu zewnętrznego napędu SCSI CD-ROM powinien się również znajdować przełącznik wyboru numeru SCSI ID. To właśnie za pomocą tego przełącznika określany jest numer identyfikacyjny napędu nadawany mu na czas współpracy z kontrolerem. Najczęściej domyślną wartością kontrolera jest SCSI ID 7. Napędowi CD-ROM nadaj dowolny inny numer (na przykład 4,5 lub 6). Jedyna zasada, której należy przy tym przestrzegać, głosi, że urządzeniu nie należy nadawać numeru ID zajmowanego już przez inną kartę lub urządzenie podłączone do tego samego kontrolera SCSI.
Instalowanie napędów wewnętrznych Rozpakuj pudełko, w którym znajduje się napęd wewnętrzny. W opakowaniu powinny się znajdować następujące elementy: • napęd, • kabel zasilania, • karta interfejsu SCSI (opcjonalnie), • wewnętrzny kabel IDE/SCS1, • wewnętrzny kabel audio CD, • dyskietki lub płyty CD ze sterownikiem urządzenia i podręcznikiem użytkownika, • szyny montażowe i/lub śruby do montażu napędu. Do zestawu dołączony może również być rozgałęziać: zasilania - wiązka przewodów zakończona plastykowymi złączami na każdym ze swoich trzech końców, a także kasetka na płyty CD (o ile napęd używa takiego mechanizmu ich ładowania) i podręcznik użytkownika. Upewnij się, że komputer jest wyłączony, i zdejmij pokrywę jego obudowy. Przed wciśnięciem karty kontrolera w odpowiednie gniazdo płyty głównej dołącz do niej kabel SCSI (patrz rys. 17.10). Rysunek 17.10. Kabel Złącze Sposób lączenia brzegowe karty kabla : Oznacze kontrolerem nie pinu 1 SCSI
Kabel a złącze brzegowe karty Oba końce kabla powinny być identyczne. Jedna strona takiego kabla powinna być oznaczona czerwoną „kropkowaną linią". Strona ta jest stroną złącza pinu numer 1 i ułatwia określenie prawidłowego sposobu osadzenia kabla w złączu kontrolera oraz napędu. Niektóre złącza wyposażone są w ząbek znajdujący się po jednej jego stronie. Uniemożliwia to niepoprawne zorientowanie kabla w gniazdach kontrolera i napędu. Kable nie oznaczone powinny być wpinane w odpowiednie gniazda według wskazań pinu numer l (czyli czerwonych kropek). Po jednej stronie kontrolera SCSI znajduje się podwójny rząd 50 pinów o kolorze mosiądzu - to właśnie jest złącze brzegowe karty. Małą czcionką u dołu tego złącza naniesione są przynajmniej dwa numery: l i 50 - oznaczają one odpowiadające im piny. Kabel należy ostrożnie wpiąć w złącze tak, aby jego oznaczona kolorem czerwonym strona znajdowała się po stronie pinu numer l. Zamocowawszy kabel można osadzić kartę kontrolera w odpowiednim złączu płyty głównej, pozostawiając - na razie - w spokoju koniec kabla przyłączany do napędu. Teraz możesz wybrać wolny słot w obudowie komputera, w którym zamontujesz wewnętrzny napęd CD-ROM. Upewnij się, że jest on łatwo dostępny i że dostęp do niego nie jest utrudniony. Jako że będziesz często wkładać do niego płyty CD, miejsce z przodu napędu na odległość przedramienia powinno być wolne. Wyciągnij pokrywę czołową. Wewnątrz wnęki, w której zamontujesz napęd, znajdziesz zapewne metalowy stelaż z otworami, do którego przymocowuje się napęd. Jeśli w obudowie napędu znajdują się otworki, a napęd pasuje do stelażu, rama montażowa nie będzie potrzebna. Jeśli jednak napędu nie można dobrze zamocować w stelażu, należy najpierw przymocować ramkę do obudowy napędu, a następnie całość wsunąć do wnęki i zabezpieczyć przed przesuwaniem za pomocą czterech śrub - dwóch z każdej strony. Jeśli otwory napędu lub ramki montażowej nie pokrywają się dokładnie z otworami stelażu obudowy komputera, przymocuj napęd przynajmniej za pomocą dwóch śrub -po jednej z każdej strony. Solidne zamocowanie napędu w obudowie komputera jest bardzo ważne, jako że do napędu będzie wsuwane i wyciągane z niego bardzo wiele płyt. Następnie, w sposób analogiczny do przedstawionego powyżej, połącz oznaczoną kolorem czerwonym stronę kabla z pinem l złącza brzegowego napędu. To, który pin jest ma numer l, wskaże Ci instrukcja obsługi lub oznaczenie naniesione bezpośrednio na złącze. Z tyłu napędu CD znajduje się gniazdo zasilania. W obudowie komputera, zwykle z tyłu dysku twardego lub stacji dysków elastycznych, znajdują się przewody zasilania -wiązki czerwonych i żółtych przewodów zakończone na końcu plastykowymi złączkami. Często okazuje się, że któryś z tych przewodów w komputerze nie jest podłączony. Jeśli i Ty masz wolny przewód zasilania, podłącz go do odpowiedniego gniazda znajdującego się z tyłu napędu CD-ROM. Przewody takie zawsze mają tylko jeden wolny koniec (drugi jest schowany w puszcze zasilacza - przyp. tłum.). Jeśli w komputerze nie ma żadnych wolnych przewodów, do zasilenia napędu musisz użyć rozdzielacza (patrz rys. 17.11). W takiej sytuacji rozłącz kabel zasilania napędu dyskietek i przyłącz do niego rozdzielacz. Jeden z wolnych końców przyłącz z powrotem do napędu dyskietek, a drugi do napędu CD-ROM.
Rysunek 17.11. Rozdzielać: przewodu zasilania
W ten sposób najlepiej podebrać prąd napędowi dyskietek. Napęd dysku twardego zwykle wymaga więcej energii i jest czulszy na współdzielenie zasilania niż napęd dyskietek. Jeśli jednak nie ma innego wyjścia - na przykład rozdzielacz i kabel danych nie sięgają do miejsca, w którym napęd jest zamontowany, to możesz rozdzielić każdy inny przewód - o ile nie został on już wcześniej rozdzielony. Sprawdź więc przy okazji, czy kable zasilania nie są obciążone podwójnym rozdziałem energii. Nie zamykaj jednak jeszcze pokrywy obudowy. Zanim ją zamkniesz, upewnij się, że wszystkie urządzenia w jej wnętrzu działają poprawnie. Aby jednak nowo zainstalowany napęd CD-ROM mógł działać poprawnie, trzeba jeszcze będzie zainstalować odpowiednie sterowniki programowe do niego.
Magistrale SCSI: wewnętrzna, zewnętrzna, po części z każdej strony Pamiętasz zapewne, że podstawową przyczyną, dla której warto używać kontrolera SCSI z napędem CD-ROM, jest możliwość dołączania wielu urządzeń do jednego kontrolera, co pozwala na wykorzystanie zwolnionych dzięki temu slotów komputera do innych celów i ograniczenie mordęgi związanej z dostosowywaniem IRQ, DMĄ oraz adresów I/O systemu. Do takiej magistrali można również dołączać skanery, streamery i inne urządzenia peryferyjne (patrz rys. 17.12). Pamiętać przy tym wystarczyć odpowiedniej jej terminacji.
Rysunek 17.12. Magistrala SCSI z urządzeniami podłączonymi do jednego kontrolera
Streamer
Przykład pierwszy: wszystkie podłączone urządzenia SCSI są zewnętrzne Załóżmy, że w komputerze zainstalowany został napęd SCSI CD-ROM, a następnie do tylnego złącza napędu dołączony został SCSI streamer. Wtedy pierwszym urządzeniem magistrali SCSI będzie SCSI kontroler. Większość nowych kontrolerów posiada zdolność autoterminac/i, co oznacza, że same się automatycznie terminują w razie znalezienia się na końcu magistrali SCSI. W sytuacji z przykładu napęd zewnętrzny połączony jest z kontrolerem za pomocą zewnętrznego kabla SCSI. Streamer dołączony jest do osobnego gniazda SCSI napędu CD-ROM. W takiej sytuacji należy dokonać terminacji streamera. Większość zewnętrznych urządzeń SCSI terminuje się za pomocą nasadek (czapeczek) SCSI wpinanych w nie używane złącze SCSI terminowanego urządzenia. Dostępne są dwa rodzaje takich złączek: nasadka SCSI oraz terminator przejściowy. Nasadka przykrywa złącze SCSI uniemożliwiając wpięcie w nie innego kabla SCSI. Umożliwia to natomiast wyposażony w wolne złącze terminator przejściowy, który musi być zastosowany, jeśli zewnętrzne urządzenie SCSI ma tylko jedno złącze SCSI. Wtedy za pomocą terminatora przejściowego dokonać można jednocześnie podłączenia i terminacji takiego urządzenia.
Przykład drugi: wszystkie podłączone urządzenia SCSI są wewnętrzne W tej sytuacji obowiązują te same, co powyżej, zasady: każde urządzenie musi mieć numer SCSI ID, a pierwsze i ostatnie z tych urządzeń muszą być terminowane. W przypadku urządzeń wewnętrznych SCSI należy jednak sprawdzić, czy terminacja została odpowiednio przeprowadzona. Urządzenia wewnętrzne wyposażone są w zestawy rezystorów terminujących podobnych do tych, które znajdują się na karcie kontrolera. Każde wewnętrzne urządzenie SCSI, które ma być zainstalowane jako ostatnie urządzenie magistrali, musi mieć rezystory terminujące, które należy odpowiednio pozwierać. Zworki urządzenia dołączanego w środku magistrali powinny być tak ustawione, aby nie powodowały terminacji. Kontroler umieszczony na końcu magistrali najczęściej samodzielnie dokonuje samoterminacji i położenia jego zworek nie należy zmieniać.
Wraz z większością wewnętrznych urządzeń SCSI standardowo dostarczane są zworki lub przełączniki DIP. Sprawdź w instrukcji obsługi, gdzie powinny się one znajdować. Jedno urządzenie może wymagać użycia kilku takich rezystorów.
Przykład trzeci: część podłączonych urządzeń SCSI jest wewnętrzna, a część - zewnętrzna Do wcześniej przedstawionych zasad stosuj się również, gdy część podłączanych urządzeń SCSI jest wewnętrzna, a część ~ zewnętrzna. Na rysunku 17.13 przedstawione są różne sposoby połączenia napędu CD-ROM, streamera i kontrolera SCSI. Schemat pierwszy przedstawia sposób połączenia tych urządzeń, gdy napęd CD i streamer są urządzeniami zewnętrznymi. Schemat drugi ilustruje sposób połączenia z kontrolerem wewnętrznego napędu i wewnętrznego streamera. Natomiast schemat ostatni opisuje sytuację, w której jedno z urządzeń jest zewnętrzne, a drugie wewnętrzne. Rysunek 17.13.
Pr:yklady różnych sposobów ląc:enia iirząd:eń SCSI
Terminator (rezystor terminujący)
Terminator terminujący)
(rezystor
Terminator (rezystor terminujący)
Terminator (rezystor terminujący)
Terminator (rezystor terminujący) Terminator (rezystor terminujący)
Rezystory terminujące wyłączone
Podczas posługiwania się kartą kontrolera, jak i każdą inną kartą, zachowaj szczególną ostrożność. Upewnij się, że sam jesteś uziemiony (uziemiona). Do zmieniania pozycji rezystorów terminujących szczególnie przydatne są specjalne pincety. Warto też zwrócić uwagę, aby ząbki rezystorów nie uległy zgięciu, gdyż niełatwo jest je później wyprostować, łatwo natomiast złamać.
Oprogramowanie CD-ROM-u Po odpowiednim skonfigurowaniu karty kontrolera wykonać można ostatni krok procesu instalacji napędu, jakim jest zainstalowanie oprogramowania CD-ROM-u. Do poprawnego zainstalowania napędu CD-ROM potrzebne są następujące trzy elementy: • Sterownik kontrolera napędu SCSI (napędy CD-ROM typu ATAPI IDĘ sterownika nie potrzebują). Sterowniki najpopularniejszych kontrolerów SCSI są wbudowane w Windows 95. • Sterownik SCSI do zainstalowanego, ściśle określonego napędu CD-ROM. Zarówno sterownik ASP1 (Advanced SCSI Programming Interface), jak i ATAPI (AT Attachment Packet Interface) IDĘ dla napędu CD-ROM wbudowane są w Windows 95. • MSCDEX (Microsoft CD Extensions for DOS), który do Windows 95 włączony jest pod nazwą CDFS VxD. Jeśli systemem operacyjnym używanego komputera jest nadal DOS, pierwsze dwa sterowniki możesz załadować do systemu umieszczając odpowiednie linie poleceń w pliku CONFIG.SYS. MSCDEX, czyli rozszerzenie DOS-owe jest plikiem wykonywalnym dołączanym do systemu za pośrednictwem pliku AUTOEXEC.BAT. Jeśli w komputerze zainstalowany jest Windows 95 (lub nowszy), pliku MSCDEX nie potrzebujesz (chyba że zamierzasz grać w gry DOSowe), gdyż Windows automatycznie rozpozna napęd podczas uruchamiania komputera i poprosi o wgranie sterowników do niego, o ile nie znajdzie ich wśród sterowników wbudowanych w Windows. Jeśli do komputera działającego pod Windows 95 (lub więcej) dołączasz napęd CD-ROM odpowiadający specyfikacji ATAPI IDĘ, nie musisz wykonywać w ogóle żadnych czynności. Wszystkie sterowniki potrzebne do tego rodzaju napędu, włącznie ze sterownikami ATAPI oraz CDFS VxD są wbudowane w ten system operacyjny. Jeśli natomiast pod Windows 95 korzystasz z napędu SCSI CD-ROM, trzeba jeszcze będzie zainstalować sterownik ASP1 odpowiadający typowi zainstalowanego przez Ciebie napędu SCSI CD-ROM. Sterownik ASP1 najczęściej tworzony jest przez producenta napędu i jest do tego urządzenia zwykle dołączany. Również do Windows 95 dołączone są sterowniki najpopularniejszych typów kontrolerów SCSI, a system ten automatycznie przeprowadza instalację sterownika CDFS VxD urządzeń wirtualnych.
DOS-owy sterownik kontrolera SCSI Każdy model kontrolera wymaga odpowiedniego sterownika umożliwiającego komunikację pomiędzy komputerem i interfejsem SCSI. Sterowniki te są najczęściej zgodne ze standardem ASP1. Sterowniki ASP1 napędu i kontrolera kontaktują się ze sobą i umożliwiają komunikację pomiędzy tymi dwoma urządzeniami. Zwykle sterowniki te dostarczane są wraz z urządzeniami, do których obsługi mają służyć. Z urządzeniami tymi najczęściej dostarczane są również instrukcje obsługi ułatwiające poprawne przeprowadzenie instalacji. Sterownik urządzenia SCSI można w razie potrzeby dodać własnoręcznie do pliku CONFIG.SYS w następujący sposób:
Na początku pliku CONFIG.SYS należy dopisać pełną ścieżkę wraz z nazwą pliku za wierąjącego sterownik, poprzedzoną poleceniem „DEVICE=", np.: DEVICE=C:\KATALOG\*SCSI.SYS gdzie zamiast C: \KATALOG\ należy wpisać nazwę katalogu, w którym zapisany zosta plik ze sterownikami ASPI. a zamiast *SCSI. SYS - faktyczną nazwę tego pliku. D< linii tej można dopisywać polecenia dodatkowe, o ile oczywiście określony sterownil obsługuje ich wykonywanie. Polecenia te mogą być zapisywane w postaci przełączników i umożliwiają wykonywanie funkcji dodatkowych, takich jak na przykład przedstawiana stopnia zaawansowania procesu ładowania sterownika.
DOS-owy sterownik napędu CD-ROM Również ten sterownik powinien być częścią zestawu instalacyjnego załączonego z napędem. Jeśli nie jest, skontaktuj się z producentem napędu i poproś go o dostanie sterowniki odpowiedniego dla posiadanego kontrolera SCSI. Razem ze sterownikiem urządzenia powinien być dostarczony także program instalacyjna ułatwiający interakcyjne określenie adresów pamięci I/O kontrolera SCSI, do którego dołączony został instalowany napęd. Sterownik ten umożliwia prowadzenie za pośrednictwem magistrali SCSI komunikacji między napędem CD i komputerem. Programy instalacyjne zwykle dodają do pliku CONFIG.SYS linię podobną do tej: DEVICE=C:\KATALOG\*CDROM.SYS /D:mscd001 gdzie zamiast C: \KATALOG\*CDROM.SYS należy wpisać nazwę i pełną ścieżkę pliku, w którym znajduje się odpowiedni sterownik. Proszę zwrócić uwagę na przełącznik /D:mscd001 dołączony do polecenia. Określa on sterownik CD-ROM-u, którego polecenie dotyczy jako sterownik pierwszego i jedynego napędu CD-ROM w systemie. Ta część polecenia służy sterownikowi Microsoft DOS Extension, który w ten właśnie sposób określa napędy CD-ROM.
MSCDEX: korzystanie z napędu CD w systemie DOS Microsoft CD Extensions for DOS (czyli MSCDEX, czyli Rozszerzenia CD Microsoftu dla DOS) umożliwiają systemowi DOS identyfikację i korzystanie z danych odczytanych przez napęd CD-ROM z włożonego doń dysku. Podczas tworzenia systemu DOS nie uwzględniono (bo jakże?) nie istniejącej wówczas jeszcze technologii CD-ROM, w związku z czym polecenia służące jej obsłudze nie są częścią podstawowego środowiska operacyjnego. Dlatego konieczne jest odwoływanie się do rozszerzeń, o których mowa. Jednak dzięki temu, w miarę zmian technologii CD-ROM można tworzyć kolejne wersje rozszerzeń MSCDEX niezależnie od systemu DOS. Na przykład, większość wielosesyjnychi napędów PhotoCD wymaga wersji 2.21 pliku MSCDEX.EXE, który został specjalnie! zmodyfikowany w stosunku do wersji poprzedniej, w celu uwzględnienia obsługi tego formatu dysków CD.
Plik MSCDEX.EXE powinien być dołączony do zestawu oprogramowania dołączonego do napędu. Jeśli nie jest, jego najnowszą wersję możesz otrzymać bezpośrednio z firmy Microsoft oraz z forum Microsoftu w sieci CompuSerye. Jeśli jesteś zarejestrowanym użytkownikiem systemu DOS, rozszerzenie MSCDEX otrzymasz za darmo. Szczegółowe warunki licencjonowania plików MSCDEX znajdziesz na dysku oraz w podręczniku użytkownika. Program instalacyjny powinien do pliku AUTOEXEC.BAT dodać linię podobną do następującej: C:\WINDOWS\COMMAND\MSCDEX.EXE /d:mscd001 gdzie C:\WINDOWS\COMMAND określa ścieżkę, w której plik MSCDEX.EXE jest standardowo umieszczany. Część polecenia oznaczona jako /d:mscd001 podaje rozszerzeniu MSCDEX DOS-a nazwę urządzenia określonego w linii sterownika napędu CD-ROM pliku CONFIG.SYS. Nazwa nadana urządzeniu w pliku CONFIG.SYS oraz nazwa przekazana jako parametr wywołania MSCDEX musi być taka sama. Powyższe przykłady ilustrują sytuację najbardziej standardową. Urządzenie może poprawnie funkcjonować jedynie wtedy, gdy oba drivery odnoszą się do jednego urządzenia - określanego przez jego nazwę. Może się to wydawać trochę skomplikowane, ale w zasadzie nie chodzi o nic innego, jak tylko o to, że jeżeli masz poprawnie zainstalowane trzy sterowniki: kontrolera SCS1, napędu CD-ROM i rozszerzeń MSCDEX, napęd CD-ROM będzie działać tak, jak każdy inny napęd czy dysk podłączony do systemu. W tabeli 17.4 ujęte zostały różne przełączniki dla pliku MSCDEX.EXE, które dołączyć można na końcu linii poleceń. Tabela 17.4. Przełączniki linii poleceń dla MSCDEX Przełącznik /V
Funkcja
Skrót od ang. „Verbose"; dodanie tego przełącznika do linii poleceń powoduje wyświetlanie na ekranie podczas uruchamiania komputera informacji dotyczących alokacji pamięci, buforów, liter przypisanych napędom oraz nazw sterowników urządzeń.
IŁ:
Służy do przypisywania napędowi litery. Dodanie do linii poleceń na przykład /L: G spowoduje przypisanie napędowi CD-ROM litery G: Pod dwoma jednak warunkami: że litera ta nie została przypisana żadnemu innemu napędowi i że w wyrażeniu lastdrive= w pliku CONFIG.SYS podana będzie ta (tu: G:) lub dowolna z następujących po niej liter alfabetu łacińskiego (tu: od H: do Z:). W podanym przykładzie wystarcza zapis lastdrive=g; wpisanie natomiast w pliku CONFIG.SYS wyrażenia lastdrive=f spowodowałoby wystąpienie błędu w przypadku próby przypisania napędowi CD-ROM litery G: za pomocą przełącznika/L:. cd. na następnej stronie
Tabela 17.4. cd. Przełączniki linii poleceń dla MSCDEX Przełącznik Funkcja /M:
Umożliwia buforowanie danych odczytywanych z CD-ROM-u, co przyśpiesza buforów> głównie początkowy dostęp do katalogów napędu (odczyt samych danych
w mniejszym stopniu). Do większości zastosowań wystarcza od 10 do 15 buforów. Wszystko, co ponad to, jest przesadą. Każdy bowiem bufor zajmuje 2 kB pamięci RAM. Zatem dodanie przełącznika /M: 10 pozbawia komputer 20 kB tego typu pamięci, nie powodując przy tym znacznego przyrostu wydajności napędu, lecz jedynie szybszy dostęp początkowy do napędu i do dużych bloków danych, które potrafią przydławić powolny napęd podczas odtwarzania filmów wideo. Oczywiście, napędu z czasem dostępu rzędu 400 ms (szybkość xl) nie uda się zmienić w demona szybkości przez dodanie 200 kB buforu. Jeśli nie zostanie określona żadna liczba buforów, MSCDEX domyślnie ustala ją na sześć, co wystarcza większości komputerów i napędów CD-ROM. /E Powoduje załadowanie wspomnianych powyżej buforów do górnych rejestrów pamięci RAM, co zwalnia zajmowany przez nie obszar w pamięci podstawowej mającej jedynie 640 kB. /K /S
Umożliwia obsługę znaków Kanji (japońskich). Pozwala na współdzielenie napędu CD-ROM w sieci „peer-to-peer", jaka tworzona jest na przykład przez Windows for Workgroups.
Proszę zauważyć, że Windows 95 używa wbudowanego sterownika CDFS (CD File System - ang. system plików dla CD), który zastępuje MSCDEX. CDFS można w Windows 95 konfigurować za pomocą ustawień Rejestru.
Ładowanie oprogramowania Jak już wcześniej wspomniałem, wraz z napędem dostarczone powinno zostać oprogramowanie instalacyjne kopiujące pliki sterownika na dysk twardy. Powinno ono również dodać odpowiednie linie poleceń do plików CONFIG.SYS i ALJTOEXEC.BAT lub do pliku SYSTEM.DAT Rejestru Windows 95. Po zakończeniu procesu instalowania, komputer można uruchomić ponownie i obserwować, czy wyświetlone zostaną komunikaty informujące o poprawnym załadowaniu zainstalowanych sterowników. Gdy masz już pewność, że sterowniki są do systemu ładowane poprawnie, włóż do napędu dysk CD-ROM z zapisanymi na nim informacjami i wydaj następujące polecenie: DIR/W G: Spowoduje ono wyświetlenie zawartości katalogu głównego dysku CD-ROM, o ile napędowi CD-ROM, w którym dysk ten się znajduje, przypisana została litera „G:". Zamiast litery „G:" można oczywiście wpisać dowolną inną literę, w wyniku czego wyświetlony zostanie katalog główny dysku nią oznaczonego. Napęd CD-ROM będzie wykonywać wszelkie wydane mu przez Ciebie polecenia poza poleceniami zapisu na dysk, jako że płyty CD są nośnikami, które nie mogą zostać nad-pisane, wymazane ani sformatowane.
Jeśli w wyniku wydania polecenia wyświetlenia zawartości katalogu dysku logicznego oznaczonego literą przypisaną napędowi CD-ROM ujrzysz na ekranie zawartość włożonej do niego płyty CD, oznacza to, że proces instalacji napędu CD-ROM udało Ci się zakończyć pomyślnie. Teraz dopiero masz pewność, że po wyłączeniu komputera i przykryciu go obudową nie trzeba będzie jej ponownie zdejmować.
CD-ROM a Microsoft Windows 3.x Po podłączeniu napędu do komputera, informacji o napędzie dostarczają systemowi Windows sterowniki napędu oraz DOS. Dostęp do zawartości CDROM-u uzyskuje się za pomocą dwukrotnego kliknięcia jego ikony umieszczonej obok ikon pozostałych napędów. Windows wie, że dysk ten jest napędem CDROM, dzięki rozszerzeniom omówionym w poprzednich punktach tego rozdziału. Podczas pracy w systemie Windows można słuchać muzycznych płyt kompaktowych (płyt audio CD) odtwarzanych przez napęd CD-ROM. W tym celu trzeba podłączyć do karty dźwiękowej zarówno ten napęd, jak i głośniki lub podłączyć porty wyjścia CD-ROM-u bezpośrednio do wzmacniacza stereo. Następnie w „Panelu sterowania" systemu Windows należy wybrać ikonę „Sterowniki". Jeśli wśród nich nie ma sterownika [MCI ] CD Audio, dodaj go naciskając przycisk „Add" (lub - w polskiej wersji językowej - „Dodaj"). Następnie do napędu CD-ROM włóż dysk lub do napędu dysków elastycznych dyskietkę instalacyjną Windows zawierającą sterownik CDAUDIO. Gdy sterownik ten wyświetlony zostanie na liście zainstalowanych sterowników, możesz pozamykać otwarte okna („Sterowniki" i „Panel sterowania"). Następnie kliknij ikonę „Media Player" („Odtwarzacz") i z menu „Devices" („Urządzenia") okna, które zostanie otwarte, wybierz pozycję „CD" („Dźwięk CD"). Jeśli do napędu włożona jest płyta audio CD, w dolnej części odtwarzacza wyświetlone zostaną numery ścieżek (utworów muzycznych) znajdujących się na niej. Pozostałe kontrolki programowego odtwarzacza płyt kompaktowych, takie jak wybór ścieżki, odtwarzanie, pauza i inne, są oznaczone tak, jak kontrolki jego sprzętowego odpowiednika znanego z wież stereo. Wielu producentów napędów CD-ROM wraz z napędami dostarcza oparte na systemie DOS odtwarzacze płyt audio-CD. Sposób instalowania tych programów sprawdź w instrukcji obsługi najczęściej zamieszczanej na dyskietkach zawierających instalacyjne wersje tych programów. Rysunekl7.14. Tak wygląda okno odtwarzacza, gdy do napędu CD-ROM •wlozonyjest dysk audio CD
CD-ROM a Windows 95 i Windows NT 4.0 Zarówno Windows95, jak i NT mają wbudowane praktycznie wszystkie sterowniki niezbędne do uruchomienia i obsługi większości napędów CD-ROM, co automatyzuje i tym samym ułatwia oraz skraca proces instalowania oprogramowania. Windows automatycznie rozpoznaje większość napędów IDĘ CD-ROM, a po załadowaniu odpowiedniego sterownika ASPI, również większość napędów SCSI CD-ROM. W systemach Windows 95/NT do istniejących już funkcji CD dodano kilka nowych. Najważniejszą z nich jest możliwość automatycznego odtwarzania płyt kompaktowych. Pozwala ona odsłuchać dysk audio bez potrzeby uruchamiania żadnego programu - wystarczy włożenie dysku do napędu - a w przypadku płyt z danymi (data CD) funkcja ta rozpoznaje, czy program znajdujący się na płycie został już w systemie zainstalowany -jeśli nie, automatycznie rozpoczyna proces instalacji. Jeśli natomiast został, uruchamia ona tę aplikację. Działanie funkcji automatycznego odtwarzania (Autoplay)jest bardzo proste. Po włożeniu dysku do napędu, Windows wprawia dysk w ruch (obrotowy) i szuka na nim pliku o nazwie AUTORUN.INF. Jeśli go znajdzie, otwiera i wykonuje polecenia w nim zapisane. Z tego więc względu z funkcji automatycznego odtwarzania można korzystać tylko w przypadku nowych dysków, na których plik AUTORUN.INF z odpowiednimi poleceniami będzie się znajdować. Większość firm obecnie produkujących oprogramowanie na CD-ROM-ach bierze pod uwagę' działanie funkcji automatycznego odtwarzania i zapisuje na dysku odpowiedni plik AUTORUN.INF. Opcję „Autoplay" można wyłączyć używając Panelu sterowania Windows 9x. W tym celu uruchom podprogram „System", następnie przejdź do strony „Menedżera urządzeń", podświetl „Napęd CD" i wciśnij przycisk „Właściwości". Jedną ze stron okna dialogowego, które się ukaże, będzie strona „Ustawienia". Wystarczy teraz odznaczyć opcję „Automatycznie powiadom o włożeniu". W tej chwili system Windows już nie będzie automatycznie odczytywał zawartości pliku „Autorun.inf". Systemy Windows 95 oraz NT są wyposażone w nową wersję Odtwarzacza znaną z Windows 3.x, dla odróżnienia nazwaną Odtwarzaczem CD. Aplikacja ta, tak samo jak jej wcześniejsza wersja, pozwala odtwarzać płyty CD podczas pracy z innymi programami, a oprócz tego ma kilka zaawansowanych funkcji dodatkowych, takich jak przypadkowa kolejność utworów, możliwość edytowania i zapisywania zmodyfikowanych list odtwa rzania i inne.
Rozwiązywanie problemów przysparzanych przez napędy CDROM Niektórzy sądzą, że dyski i napędy CD-ROM (optyczne) są w porównaniu do ich magnetycznych odpowiedników praktycznie niezniszczalne. W rzeczywistości są one dużo mniej niezawodne niż nowoczesne dyski twarde. Bo właśnie niezawodność jest problemem trapiącym wszystkie przenośne nośniki danych i dyski CD-ROM nie stanowią tu wyjątku.
Najczęstszą przyczyną problemów zarówno z napędami, jak i z dyskami CD-ROM są zarysowania, kurz i inne zabrudzenia. Małe ryski lub odciski palców nie powinny przeszkadzać laserowi podczas odczytywania danych, lecz zabrudzenia i głębsze rysy mogą zmieniać sposób odbijania się lasera i uniemożliwiać poprawny odczyt. Często rozwiązaniem problemów z odczytem zabrudzonego dysku jest wyczyszczenie miękką szmatką jego spodniej strony. Należy przy tym uważać, by podczas czyszczenia jej nie zarysować. Brud znajdujący się na powierzchni dysków najlepiej usuwać za pomocą ruchów równoległych do promienia dysku, dzięki czemu ewentualne zarysowania, które powstaną podczas czyszczenia, będą położone prostopadle do ścieżek, a nie wzdłuż nich, dzięki czemu zakłócenia przez nie powodowane będą możliwie małe. Szmatka używana do czyszczenia powierzchni dysku może być zamoczona w dowolnym płynie, o ile oczywiście nie rozpuszcza on plastyku. Świetnie do tego celu nadają się wszelkiego rodzaju płyny do mycia szyb. Głębokie rysy mogą być wypolerowane. Można je usuwać za pomocą środków do czyszczenia plastykowych części samochodowych lub soczewek świateł tylnych, które są dostępne w wielu sklepach z częściami samochodowymi. Tego typu preparaty zawierają łagodne substancje ścierne ułatwiające usuwanie rys z powierzchni plastykowych. Zazwyczaj preparaty opisane jako czyszczące są mocniejsze od polerujących, których z kolei lepiej używać do nadawania dyskom ostatecznego szlifu. Do usuwania płytszych rys w zasadzie powinny wystarczyć preparaty polerujące. Błędy odczytu mogą się również zdarzać, gdy na soczewkach skupiających wiązkę lasera w napędzie CD-ROM osadzi się kurz. Napęd i soczewki można oczyścić za pomocą lekko sprężonego powietrza lub przy użyciu zestawów do czyszczenia odtwarzaczy kompaktowych (dostępne w większości sklepów sprzedających muzyczne płyty kompaktowe). Jeśli zarówno dyski, jak i napęd CD-ROM są czyste, lecz pewnych dysków nadal nie można odczytać, problem może wynikać ze zbyt dużej ich pojemności. Wczesne dyski CD-ROM miały pojemność 550 MB (co odpowiada 60 minutom muzyki na płycie audio). Od pewnego czasu pojemność produkowanych dysków została zwiększona do 680 MB (odpowiednik 74 minut na płycie audio). Wiele zatem starszych napędów CD-ROM, projektowanych z przeznaczeniem do odczytu dysków 550 MB, może mieć trudności z odczytywaniem informacji znajdujących się na najbardziej zewnętrznych częściach ścieżki nowszych dysków o większej pojemności. Problem ten można często rozwiązać zmieniając wersję oprogramowania lub sterownika napędu CD-ROM na nowszą, a jeśli to nie pomaga - rozwiązaniem pozostaje wymiana na nowszy samego napędu. Nie tylko zbyt duża, lecz również zbyt mała ilość informacji na dysku może czasem stanowić problem. Niektóre starsze napędy CD-ROM swój mechanizm odczytu kalibrują w oparciu o przypadkowo wybrany punkt na powierzchni dysku. Jeśli w punkcie tym dane nie są zapisane, napęd może mieć problemy z prawidłowym przeprowadzeniem kalibracji. Niektóre starsze napędy mogą mieć problem z poprawną kalibracją głowic w oparciu na przykład o dysk, na którym dostarczana jest gra symulacyjna Microsoft Flight Simulator 5.1, gdyż na dysku tym nie znajduje się zbyt wiele danych. Na szczęście modernizacja sterownika zwykle wystarcza do poradzenia sobie z tego rodzaju problemem.
Wiele starszych napędów może mieć problemy podczas współpracy z systemem W dows 95. Jeśli sytuacja ta dotyczy również Ciebie, dowiedz się od producenta napę' czy są dostępne nowsze wersje sterowników, które umożliwiłyby rozwiązanie probler Przy cenach rzędu 200 (i mniej) złotych za napęd często bardziej opłaca się wymię stary napęd CD-ROM na nowy niż kupować nowsze wersje oprogramowania i grzel się przy wciąż przecież starym i mniej wydajnym napędzie. Jeśli masz problemy z jednym tylko, określonym dyskiem, a nie z napędem w ogc mogą one być spowodowane uszkodzeniami dysku. Wymiana dysku na inny pozw sprawdzić, czy przyczyną problemu jest rzeczywiście napęd.
Rozdział 18.
Urządzenia pamięci masowej Ilość danych zgromadzonych na dyskach komputerów osobistych może być przytłaczająca. Jednak osoby posiadające duże twarde dyski z licznymi programami oraz te, które przetwarzają duże ilości danych, powinny zdawać sobie sprawę z konieczności ich cotygodniowej, a nawet codziennej archiwizacji. Dodatkowym, ważnym problemem staje się dostępna ilość miejsca na dane na dysku. Niezależnie od tego, do jakich celów jest wykorzystywany komputer, ilość tego miejsca jest wciąż niewystarczająca ze względu na dużą liczbę zainstalowanych programów. Dlatego też rzadko wykorzystywane dane powinny być archiwizowane na dodatkowym nośniku. W rozdziale tym omówimy urządzenia służące do archiwizowania danych, takie jak stre-amery i napędy z wymiennymi nośnikami. Są one coraz częściej wykorzystywane w celu rozwiązania problemu wciąż brakującego miejsca na dyskach oraz do przeprowadzania archiwizacji wielu megabajtów danych.
Napędy taśmowe Praktycznie każda książka komputerowa porusza temat regularnej Archiwizacja jest konieczna ze względu na możliwość trwałego danych bądź programów znajdujących się na twardym dysku, bezużytecznymi. Poniżej przedstawiam najczęstsze przyczyny uszkodzenia danych na dyskach:
archiwizacji. uszkodzenia co czyni je powodujące
• wahania napięcia; • zapisanie przez pomyłkę pliku pod nazwą innego pliku; • sformatowanie twardego dysku zamiast dyskietki; • uszkodzenie twardego dysku. Konieczna jest wtedy instalacja nowego dysku oraz programów dyskietka po dyskietce; • całkowite uszkodzenie komputera spowodowane powodzią, pożarem, uderzeniem pioruna, kradzieżą. Uderzenie pioruna w pobliżu biura lub domu może spowodować uszkodzenie układów elektronicznych komputera, a także twardego dysku. Kradzież również w pewien sposób „niszczy" komputer. Posiadanie aktualnego, pełnego archiwum upraszcza proces konfiguracji nowego komputera; • utrata danych spowodowana wirusem komputerowym. Pojedynczy wirus może uszkodzić cenne pliki, a nawet cały dysk. Biorąc pod uwagę fakt, że każdego miesiąca pojawia się kilkaset nowych wirusów, żaden program antywirusowy nie zapewni bezpieczeństwa. Aktualne archiwum pozbawione wirusów pozwoli ci wyjść i z gorszej opresji.
Archiwum jest też lekarstwem na zapełnione dyski oraz metodą na wymianę danych między komputerami. Poprzez archiwizowanie rzadko używanych danych i wykasowanie ich z dysku uzyskujesz dodatkową wolną przestrzeń. Jeśli później będziesz potrzebował jakiegoś pliku, odzyskasz go z archiwum. Wysyłanie dużej ilości danych z jednego miasta do innego może być w prosty sposób wykonane poprzez nagranie danych na taśmę i wysłanie jej. Ale i tak, mimo iż ogólnie wiadomo, że regularne archiwizowanie danych jest bardzo ważne, wielu ludzi go nie wykonuje. Dzieje się tak głównie z powodu konieczności archiwizowania danych na dyskietki - trzeba by ich około setki, aby przenieść wszystkie istotne dane i programy. Dokładna ilość dyskietek zależy od tego, czy posiadany program archiwizujący ma możliwość kompresji danych zarchiwizowane dane zajmują wtedy mniej miejsca niż na twardym dysku. Najprostszymi i najefektywniejszymi urządzeniami do archiwizacji danych są streamery. Posiadając streamer, składujesz dane na taśmach wykorzystując odpowiednie oprogramowanie do wybrania napędów i plików przeznaczonych do archiwizacji. Wybrane pliki są składowane na tasiemce bezobsługowo. Kiedy będziesz chciał odtworzyć dane z tasiemki, włożysz ją do streamera, uruchomisz program archiwizujący i wybierzesz żądane pliki. W tym podrozdziale przedstawimy różne typy streamerów, ich możliwości oraz wymagania, jakie musi spełniać komputer w celu ich zainstalowania. Omówimy następujące problemy: • Powszechne standardy streamerów, z uwzględnieniem napędów OIC-40 i OIC80 • Taśmy do streamerów • Nowe streamery o dużej pojemności • Interfejsy • Standard QIC • Streamery przenośne • Oprogramowanie archiwizujące
Historia powstania standardów archiwizacji z wykorzystaniem napędów taśmowych Rozwój standardów archiwizacji na nośnikach taśmowych przebiega podobnie jak rozwój standardów innych elementów komputerowych. Wykorzystywanie nośników taśmowych stało się powszechną praktyką na długo przed przyjęciem obecnych standardów. Początkowo wykorzystywano napędy taśmowe podobne do magnetofonów szpulowych. Używano w nich taśmy o szerokości 1/4 cala, co stało się w końcu standardem. Jednak każdy producent taśm tworzył własne specyfikacje zapisu danych. Różnice obejmowały nie tylko ilość ścieżek i gęstość zapisu danych, ale również interfejs, za pomocą którego podłączało się napęd do komputera.
W 1972 roku, ponad dziesięć lat przed wprowadzeniem pierwszego komputera IBM, firma 3M wprowadziła pierwsze kasetki z taśmą o szerokości 1/4 cala, przeznaczone do przechowywania danych. Kasetki miały rozmiary 6x4x5/8 cala. Wewnątrz kasety taśma była nawinięta na dwie szpulki. Podczas nagrywania i odtwarzania taśma była przewijana z jednej szpulki na drugą. Ze względu na dużą niezawodność tych tasiemek, rosło zapotrzebowanie na system archiwizacji taśmowej. Z powodu braku standardu, tasiemek zapisanych na napędzie taśmowym jednego producenta z reguły nie można było odczytać na napędzie innego producenta. Dodatkowo producenci zmieniali wciąż sposób zapisu danych na taśmach. Jeśli określony model napędu taśmowego uległ uszkodzeniu, a producent zaprzestał jego produkcji i nie używa już tego formatu zapisu danych, taśmy zapisane na uszkodzonym napędzie pozostają bezużyteczne aż do naprawienia tego napędu. Jeśli napędu nie będzie można naprawić, bezpowrotnie utracimy dane. Podobnie jak w przypadku innych podzespołów komputerowych, np. twardych dysków, kupujący wymusili stworzenie standardu zapewniającego odczytywanie dowolnej taśmy na dowolnym napędzie.
Standard QIC Ogólny pęd do standaryzacji doprowadził do utworzenia organizacji Ouarter-Inch Car-tridge Drive Standards Inc., określanej czasami jako Ouarter Inch Committee (QIC). Pierwszy napęd taśmowy oparty na standardzie QIC powstał w latach 198384; był to napęd QIC-02 mieszczący 60 MB danych na dziewięciu ścieżkach na taśmie o długości ok. 90 m. Ze względu na trudności z dostosowaniem rozmiaru kasetek 4x6x5/8 cala do 5,25calowych kieszeni komputerów osobistych, wprowadzono nowy standard taśm, w przybliżeniu o rozmiarach kasety magnetofonowej: 3,25x2,5x3/5 cala.
Te dwa rozmiary kaset są obecnie wykorzystywane w napędach taśmowych standardu QI Dwuliterowe oznaczenie wskazuje, czy wykorzystywane są kasetki pełnowymiarow czy o zmniejszonym rozmiarze. Używane kody to: • DC - data cartridge: kaseta o rozmiarach 4x6x5/8 cala, • MC - m i ni cartridge: kaseta o rozmiarach 3,25x2,5X3/5 cala. Na przykład QIC-5B-DC oznacza taśmę standardu QIC o pojemności 5 GB w pełnowymi rowej kasecie, a QIC-5010-MC - taśmę o pojemności 13 GB w kasecie o zmniejszony rozmiarze. Tabela 18. l zawiera powszechne formaty taśm standardu QIC wraz z danymi technicznym Tabela 18.1. Dane techniczne napędów taśmowych standardu QIC Kasetki o zmniejszonym rozmiarze (mini-cartridge) DC-2000 (przybliżone rozmiary 3.25x2,5x3/5 cala). Nr standardu QIC Q1C-40
Pojemność tasiemki (bez kompresji/ Ilość Przybliżona z kompresją) prędkość ścieżek 40 MB/60 MB
transferu 20 2-8danych MB na minutę
OIC-80
80MB/120MB
28
QIC-100 20 MB/40 MB (przestarzał y) 86MB/I28MB QIC-128 OIC-3010 255 MB
3-9 MB na minutę
12 lub 24 32 40
9 MB na minutę 9 MB na minutę
QIC-3020
500 MB
40
QIC-3030
555 MB
40
QIC-3040
840 MB
42 lub 52
OIC-3050
750 MB
40
QIC-3060 875 MB (nie produkowany)
38
QIC-3070
4 GB
144
OIC-3080
l,6 GB
50
OIC-3095
2-5 GB
72
30-60 MB na minutę (l)
QIC-3110 QIC-3210
2 GB 2,3/5,7 GB
48 72
30 MB (l) :
QIC-5010
13 GB
144
(1) Pojemność tasiemki zależy od jej długości. (2) Dlugosć tasiemki mo:e być różna w zależności od producenta. hpi bit per inch - bitów na cal
W przeciwieństwie do oznaczeń programów, gdzie liczby oznaczają kolejne ich wersje, cyfrowe oznaczenia w nazwach napędów taśmowych wcale nie wskazują, który napęd jest najnowszy. Na przykład oznaczenia QIC-100 i QIC-128 były używane w odniesieniu do starszych napędów, a QIC-40 i QIC-80 to współczesne napędy. Co więcej, liczby te często nie mają żadnego związku z pojemnością kaset wykorzystywanych przez dany napęd. Kasetki QIC-40 mają pojemność 60 MB, a kasetki QIC-80 - 120 MB. Taśmy standardu QIC to nośniki magnetyczne najczęściej z tlenku żelazowego; sposób zapisu danych przebiega podobnie jak w przypadku twardych dysków, z wykorzystaniem zmodyfikowanej modulacji częstotliwości (MFM - modified frec/uency modula-tiori) lub technologii RLL (run-length limited).
Długość tasiemki Metoda zapisu Typ interfejsu Gęstość danych zapisu danych (2) lOOOObpi
62.5/93.7 m
MFM
14700bpi
62.5/93,7 m
MFM
Kontroler napędu dyskietek lub specjalna karta Kontroler napędu dyskietek lub specjalna
lOOOObpi
-
MFM
karta SCS1 (4) lub QIC
16000 bpi
-
MFM
SCS1 lub QIC
22000 bpi 42000 bpi
91.5 m 122 m
MFM MFM
Kontroler napędu dyskietek lub IDĘ Kontroler napędu dyskietek lub IDĘ
51000 bpi
84 m
MFM
SCSl-21ubQIC
41000 bpi
122 m
RLL
SCS1-2 lub QIC
-
90 m
RLL
SCSI-2 lub QIC
-
90 m
RLL
-
68000
90 m
RLL
SCSI-2 lub QIC
60000
-
RLL
SCSI-2 lub QIC
67733
Różna
RLL
SCSI-2 lub QIC
-
-
RLL
SCSI-2 lub QIC
60960 -
226 m -
OCR RLL
SCS1 lub SCSI-2 SCSI-2 lub QIC
Tabela 18.1. cd. Dane techniczne napędów taśmowych standardu QIC Kasety standardu OlC-pełnowymiarowe. DC-300a/DC-600/DC-6000 (przybliżone rozmiary 4x6x5/8 cala). Numer standardu QIC QIC-11 (DC30 QIC-24 QIC-120 QIC-150
Pojemność tasiemk ' Ilość ścieżek (bez kompresji / z 99 kompresja) 15 0) 45 MB 45/60 MB 125 MB 150/250 MB 18
Przybij maksy transfe
żona malna prędkość -ru danych
-
QIC-525
320/525 MB
26
12 MB
na minutę
QIC-1000
l GB
30
18MB
na minutę
QIC-1350
l.35 GB
30
18 MB
na minutę
QIC-2100 QIC-2GB
2.1 GB 2.0 GB
30 42
18MB 18MB
na minutę na minutę
Q1C-5GB
5 GB
44
18MB
na minutę
QIC-5010
13 GB
144
18MB
na minutę
OIC-5210
25 GB
144
120 MB na minutę
(1) Pojemność tasiemki zależy od jej długości. (2) Dli/gość tasiemki może być różna w zależności od producenta. hpi bit per inch - bitów na cal.
Taśmy QIC Najbardziej powszechne standardy napędów QIC, Q1C-40 i Q1C-80, wykorzystują mi-nikasety (miniccirtridge}. Standardy te wykorzystują miliony napędów zainstalowanych w systemach komputerowych. Jest kilka powodów ich dużej popularności. Między innymi są pierwszą generacją napędów atrakcyjnych ekonomicznie i wykorzystujących powszechną metodę zapisu niezależną od producenta, co oznacza, że taśmy zapisane na danym napędzie mogą być odczytane na napędzie innego producenta. Dodatkowo, mały rozmiar minikasety umożliwił stworzenie odpowiednio małych napędów, które z powodzeniem mieszczą się zarówno w 5,25-calowych, jak i 3,5calowych kieszeniach. Napędy zewnętrzne niemal wyłącznie pracują z taśmami w formacie Q1C-80. W przeciwieństwie do napędów wewnętrznych, napędy zewnętrzne można wykorzystywać do archiwizowania wielu komputerów. Kolejną przyczyną sukcesu napędów Q1C-40 i Q1C-80 jest niska cena taśm w przeliczeniu na megabajt składowanych danych w porównaniu z ceną dyskietek.
Gęstość zapisu (l) danych
Długość tasiemki (2)
Metoda zapisu danych
Typ interfejsu
-
137m
MFM
QIC-02
8000 bpi
137m lub 183 m
MFM
SCSI lubQIC-02
10000bpi 10000bpi
183m 183m lub 305 m
MFM MFM
SCSI lub QIC-02 SCSI lubQIC-02
16000bpi
305m
MFM
SCSI lubQIC-02
36000bpi
232m
MFM
SCSI lubQIC-02
51000bpi
232m
RLL
SCS1-2
68000bpi
267m
RLL
SCSI-2
40000bpi
274m
MFM
SCS1-2
96000bpi
366 m
RLL
SCSI-2
68000bpi
-
RLL
SCS1-2
101600 bpi
366m do 458 m
RLL
SCSI lubSCSI-2
Na przykład firmowa taśma QIC-80 ma pojemność z kompresją 250 MB i kosztuje w granicach od 14 do 25 dolarów. Cena 13 pudełek (po 10 dyskietek w każdym) firmowych dyskietek 3,5 cala, na których można nagrać w przybliżeniu taką samą ilość danych, wynosi 90 dolarów. Taka sama ilość dyskietek niefirmowych, na których raczej nie przechowuje się ważnych danych, kosztuje ok. 50 dolarów. Oczywiście różnica w cenie nie uwzględnia czasu potrzebnego na przekładanie dyskietek ani kosztów ich przechowywania. Większość napędów QIC ma jednak poważną wadę - wykorzystują ten sam interfejs, co napęd dyskietek. Powoduje to - zwłaszcza w przypadku starszych komputerów - bardzo powolną pracę napędów. Prędkość przesyłu danych jest zbliżona do prędkości zapisu danych na dyskietce. W przypadku kontrolerów współpracujących tylko z napędami Double Density (DD) prędkość ta wynosi 250 kb/s, co daje mniej niż 2 MB na minutę. Kontrolery współpracujące z napędami High Density (HD) przesyłają dane z prędkością od 300 do 500 kb/s, czyli ok. 3,75 MB na minutę. Najnowsze kontrolery ED (Extra-high Density) pracują z prędkością 7,5 MB na minutę, co już jest do przyjęcia (patrz tabela 18.2). Powyższe prędkości są maksymalnymi możliwymi do uzyskania i w praktyce nie są osiągane. Podobnie jak dyski i dyskietki, taśmy również muszą zostać przed użyciem sformatowane. Czas formatowania jest wciąż jedną ze słabych stron napędów taśmowych. Formatowanie taśmy QIC-80 o długości 125 m zajmuje ponad trzy godziny. Ze względu na tak długi
Tabela 18.2. Przybliżone prędkości transferu danych kontrolera napędu dyskietek
Typ kontrolera kb/s kB/s
DD
HO 250
HD 300
ED 500
1000
32.25
37,5
62.5
125
1,88
2,25
3,75
7,5
MB/min
czas formatowania, w sprzedaży są praktycznie tylko już sformatowane taśmy. Inne typy taśm umożliwiają formatowanie „w locie", co oznacza, że nie są wymagane sformatowane tasiemki. Dane na taśmach Q1C-40 i QIC-80 są zapisywane w formacie MFM, takim samym, jaki jest używany do zapisu dyskietek (i starszych dysków). Kolejnym podobieństwem tasiemek, dyskietek i dysków jest tworzenie w procesie formatowania systemu rekordów. Standard QIC wymaga również tablicy alokacji plików FAT (file allocation table), w której są zawarte informacje o miejscu przechowywanych danych i uszkodzonych sektorach. Tasiemka Q1C-40 posiada 20 ścieżek podzielonych na 68 segmentów po 29 sektorów każdy. Sektor mieści l kB (1024 bajty). System rekordów i system korekcji błędów zapewniający wiarygodność zapisywanych danych zajmują łącznie ponad 30 procent pojemności taśmy. Pomimo małej prędkości zapisu danych na niektórych komputerach i długiego czasu formatowania tasiemek, łatwość użycia napędów taśmowych przyczynia się do ich popularności. A popularność ma swoje plusy. Ceny napędów taśmowych o najmniejszej rozsądnej pojemności tasiemek (QIC-80) spadły gwałtownie w ostatnich latach. Firmowy napęd taśmowy QIC-80 można kupić za około 150 dolarów, a czasami przy zamówieniach wysyłkowych nawet za ok. 100 dolarów.
Napędy Q1C-40 Pierwszymi napędami taśmowymi, które zyskały powszechną akceptację, były napędy oparte na standardzie Q1C-40, wprowadzonym w 1986 roku. Pierwsze napędy Q1C-40 miały rozmiary pasujące do kieszeni 5,25 cala, a do transmisji danych używały z reguły kontrolera napędów dyskietek. Pierwsze taśmy Q1C-40 miały pojemność 40 MB (można było na nich zapisać 40 MB danych bez kompresji); wkrótce pojawiły się także taśmy o pojemności 60 MB. Wadą napędów Q1C-40 było wykorzystywanie jednego z połączeń przeznaczonych dla napędu dyskietek, co powodowało, iż w komputerze z napędem taśmowym można było używać tylko jednego napędu dyskietek. Jednak, dzięki wykorzystaniu specjalnego kabla, nowsze modele napędów Q1C-40 umożliwiają podłączenie dwóch napędów dyskietek. Mimo że głównym celem organizacji QIC było osiągnięcie kompatybilności pomiędzy różnymi napędami taśmowymi, taśmy nagrane na jednym napędzie nie zawsze można było czytać na innym. Producenci pozostali przy swoich ustaleniach co do umieszczania danych na taśmach. Kompatybilność między napędami różnych producentów stała się rzeczywistością dopiero wraz z wprowadzeniem napędów QIC-80.
Napędy QIC-80 Napęd QIC jest obecnie najpopularniejszym napędem taśmowym i w zasadzie jest to minimum, jakie należy rozważać przy zakupie. Napędy te z reguły pasują do kieszeni 3,5 cala, chociaż zwykle posiadają także płytę czołową umożliwiającą użycie ich w kieszeniach 5,25-calowych. Jako interfejsu danych używają kontrolera napędu dyskietek lub specjalnego szybkiego interfejsu na karcie rozszerzeń montowanej na płycie głównej. W przypadku tego ostatniego, uzyskuje się znaczny wzrost prędkości przesyłu danych i skrócenie czasu archiwizacji. Praktycznie każda taśma zapisana na jednym napędzie QIC-80 może być odczytana i zapisana na napędzie innego producenta. Ta kompatybilność wynika przede wszystkim z założeń standardu QIC-80, który określa nie tylko rodzaj systemu rekordów dla każdej taśmy, ale również logiczną strukturę danych na taśmie. Dodatkowo na napędzie QIC-80 można odczytać (ale nie nagrać) taśmę QIC-40.
Zewnętrzne napędy taśmowe Zewnętrzne napędy taśmowe cieszą się dużą popularnością ze względu na możliwość łatwego podłączania ich do różnych komputerów. Są szczególnie użyteczne dla osób korzystających z laptopów (do których nie ma modeli wewnętrznych) oraz dla tych, którzy zamierzają archiwizować wiele komputerów na jednym napędzie taśmowym. Napędy zewnętrzne są także idealnym rozwiązaniem w przypadku tych komputerów osobistych, które nie posiadają już wolnej kieszeni na dodatkowe urządzenie, co często zdarza się w przypadku komputerów typu slimiine. Napęd zewnętrzny to zwykły napęd umieszczony w prostopadłościennym pudełku; łączy się go z komputerem poprzez port równoległy, a zasilany jest z transformatora podłączonego do zwykłego gniazdka 220 V. W celu uruchomienia napędu zewnętrznego należy podłączyć kabel zasilający z jednej strony do urządzenia, a z drugiej do gniazdka, podłączyć kabel logiczny do portu równoległego komputera, a następnie uruchomić oprogramowanie archiwizujące. Jednym z ograniczeń napędów zewnętrznych jest niewielka dostępność kompatybilnego oprogramowania. Wprawdzie producenci tych napędów dostarczają wraz z nimi specjalne oprogramowanie, jednak popularne programy nie będą z nimi współpracować. Najbardziej popularne napędy zewnętrze są dostępne w standardzie QIC-80. Nagrywają one dane z prędkością od 3 do 6 MB na minutę.
Napędy QIC o wysokiej pojemności Wykorzystywanie napędów taśmowych QIC-80 do archiwizowania serwera z dyskiem 4 GB lub większym może być równie frustrujące jak wymiana dyskietek podczas archiwizowania dysku 200 czy 500 MB. Do archiwizacji dysku 4 GB na napędzie QIC-40 bez kompresji potrzeba byłoby około 64 tasiemek. Po zastosowaniu kompresji liczba tasiemek spadnie do 32, ale wydłuży się czas archiwizacji.
Rozwiązaniem problemu wymiany taśm jest użycie napędu umożliwiającego wykorzystanie taśm o większej pojemności. QIC określiła wiele standardów dla tasiemek o wysokiej pojemności - od 86 MB do 25 GB. Ogólnie mówiąc, na tych taśmach dane są gęściej ułożone, wykorzystano 144 ścieżki, aby zmieścić 60000 bpi i więcej (w porównaniu do 20 ścieżek i 10000 bpi dla napędu QIC-40). W celu osiągnięcia większej pojemności, standard QIC wymaga nośnika o większej koercyjności, na poziomie co najmniej 1300 erstedów (dla taśm QIC-40 i QIC-80 poziom ten wynosił 550 erstedów). Taśmy te są również dłuższe, np. taśmy QIC5010 mają 366 m (w porównaniu z 90 m taśm QIC-40 i QIC-80). Podobnie jak wyższa koercyjność dyskietek 1,44 MB umożliwia napędom HD gęstszy zapis danych niż na dyskietkach 720 kB, tak i wyższa koercyjność tasiemek zwiększa ich pojemność. Systemy oparte na minikasetach zdominowały rynek napędów o małych pojemnościach (OIC-40 60 MB i QIC-80 120 MB), natomiast napędy o dużych pojemnościach wykorzystują zarówno minikasetyJak i kasety pełnowymiarowe. Na przykład standard QIC-525 o pojemności 525 MB bez kompresji oparty jest na pełnowymiarowych kasetach (4x6x5/8), a standard QIC-5010 - na minikasetach (3,25x2,5x3/5).
Kompatybilność taśm QIC Chociaż napędy QIC wykorzystują standardowe minikasety i kasety pełnowymiarowe, błędem byłoby założenie, iż taśmy jednego standardu są zawsze ze sobą kompatybilne. Na przykład taśmy QIC-5010 nie są kompatybilne z taśmami QIC-40 i QIC-80, mimo że oba standardy wykorzystują minikasety. Podobnie taśmy QIC-525 nie są kompatybilne z wcześniejszymi standardami opartymi na kasetach pełnowymiarowych. Brak kompatybilności pomiędzy taśmami wykorzystującymi kasety o takim samym rozmiarze wynika z różnic pomiędzy mechanizmami napędów taśmowych oraz z różnej koercyjności tasiemek. Tabela 18.3 zawiera zestawienie kompatybilnych tasiemek. Kompatybilność tasiemek jest ważną kwestią przy wyborze współczesnego systemu archiwizującego. Jak widać w tabeli 18.3, napęd QIC-3070 czyta tylko tasiemki własnego standardu oraz standardu QIC-3030. Jeśli posiadasz dużo tasiemek QIC-80 zawierających dane, do których musisz mieć dostęp, dobrym zakupem będzie napęd zgodny ze standardem QIC-3010. Napęd ten odczytuje tasiemki QIC-40 i QIC-80. W podrozdziale „Wybór rodzaju napędu" omówimy inne problemy, jakie napotkasz przy wyborze nowego napędu taśmowego.
Inne napędy o wysokiej pojemności Taśmy QIC pokryte tlenkiem żelazowym są wciąż popularne, jednak coraz większą popularnością zaczynają się cieszyć dwa inne systemy archiwizacji danych, wykorzystywane w sieciach komputerowych i innych systemach z dużą ilością danych. Są to czterem i limetrowe taśmy DAT (digital audio tape) i 8milimetrowe taśmy wideo.
Tabela 18.3. Kompatybilność tasiemek QIC Taśmy QIC w minikasetach
Standardy kompatybilne
QIC-40
-
QIC-80
QIC-40 (tylko odczyt)
QIC-100 QIC-128
QIC-100 (tylko odczyt)
OIC-3010
QIC-40 i QIC-80 (tylko odczyt)
QIC-3020
QIC-40, QIC-80 oraz QIC-3010 (tylko odczyt)
QIC-3030
QIC-3010 (tylko odczyt)
QIC-3070
QIC-3030 (tylko odczyt)
QIC-3095
QIC-3010 oraz QIC-3020 (tylko odczyt)
QIC-3210
QIC-3040 (tylko odczyt)
QIC-3230
QIC-3040, QIC-3095 oraz QIC-3210 (tylko odczyt)
Taśmy QIC w kasetkach pełnowymiarowych
Standardy kompatybilne
QIC-24
QIC-24 (tylko odczyt)
QIC-120
QIC-24 i QIC-120 (tylko odczyt)
QIC-150
QIC-24, QIC-120 i QIC-150 (tylko odczyt)
OIC-525
QIC-120, QIC-150 i QIC-525 (tylko odczyt)
OIC-1000
QIC-525 i QIC-1000 (tylko odczyt)
QIC-1350
QIC-120, QIC-150, QIC-525 i QIC-1000 (tylko odczyt)
OIC-2G QIC-2100
OIC-525 QIC-1000 (tylko odczyt) QIC-24, QIC-120, QIC-150, QIC-525 i QIC-1000 (tylko odczyt) QIC-150, QIC-525 i QIC-1000 (tylko odczyt)
QIC-5G QIC-5010 Firma Sony, która wprowadziła na rynek taśmy DAT, udostępniła licencję innym producentom, tworząc w efekcie nowy standard napędów i taśm. Tylko jedna firma, Exabyte, wytwarza napędy 8 mm. Można więc powiedzieć, że kompatybilność mamy zapewnioną. W tabeli 18.4 znajdziesz dane techniczne taśm DAT i 8-milimetrowych. Metoda nagrywania helican scanjest podobna do metody nagrywania obrazu na kasecie wideo. Podobnie jak w standardzie QIC, taśmy DAT i 8 mm przechodzą pod głowicami nagrywającymi zamocowanymi na bębnie. Głowice zapisująco-odczytujące obracają się pod niewielkim kątem w stosunku do tasiemki. Mechanizm napędu taśmowego nawija taśmę dookoła głowic, co powoduje, że głowice dotykają taśmy pod pewnym kątem.
Technologia helical scan zapewnia, że cała powierzchnia taśmy jest wykorzystana do zapisu danych, w przeciwieństwie do innych metod, w których ścieżki z danymi przeplatają się z obszarami bez danych. Właśnie to pełne wykorzystanie powierzchni taśmy umożliwia napędom helical scan umieszczanie o wiele większych ilości danych na taśmie o określonej długości.
Napędy DAT Standard DAT (Digital Audio Tape - magnetofonowa taśma cyfrowa) został stworzony przez firmę Hewlett-Packard. Firma ta przewodzi grupie DDS Manufactures Group i należy do liderów standardu DDS (Digital Data Storage). Technologia taśm cyfrowych jest zbliżona do metod wykorzystywanych przy nagrywaniu muzyki na płyty kompaktowe. Dane nie są nagrywane w formatach MFM i R.LL używanych w napędach QIC. Danym przypisywane są określone wartości liczbowe, które następnie zamieniane są na strumień impulsów elektronicznych zapisywanych na taśmie. Podczas odtwarzania danych z taśmy są one z powrotem zamieniane na bity danych. Taśmy DAT mieszczą do 12 GB nie skompresowanych danych (24 GB z kompresją). Wyróżniamy dwa formaty taśm DAT: DDS i DataDAT. Format DDS jest znacznie bardziej powszechny. Napędy DDS dzielimy na trzy rodzaje: • DDS-1 - o pojemności 2 GB bez kompresji (4 GB z kompresją), • DDS-2 - o pojemności 4 GB bez kompresji (8 GB z kompresją), • DDS-3 - o pojemności 12 GB bez kompresji (24 GB z kompresją). Napędy DDS-3 są w pełni kompatybilne z napędami DDS-1 i DDS-2; posiadają trzykrotnie większą pojemność i dwukrotnie większą prędkość przesyłu danych w porównaniu z napędami DDS-2. Napędy DDS-3 zapewniają wydajne archiwizowanie dla średnich i dużych sieci za znacznie niższą cenę niż produkty standardów 8 mm i DLT (digital linear tape) o podobnej pojemności. Nowe napędy DDS-3 firmy Hewlett-Packard (model C1537A) posiadają pojemność 12 GB przy prędkości przesyłu danych l MB/s. Napędy DDS-3 z reguły potrafią zapisać 24 GB na taśmie 125 m dzięki kompresji sprzętowej. Nowe napędy DDS-3 firmy Hewlett-Packard posiadają kilka unowocześnień, m.in. wykorzystują schemat kanałowej detekcji PRML (Partia! Response Maximvm Łikelihood data-channel detection scheme), który umożliwia rozróżnianie bitów danych odczytywanych jednocześnie.
Długość taśmy Metoda nagrywania 60 m/90 m 120 Helical Scan. DataDAT Helieal Scan m
Format zapisu danych DDS*
Interfejs SCSI
Typowy napęd DDS-2 kosztuje około 750 dolarów, napęd DDS-3 - około 1000 dolarów. Standard DDS cieszy się uznaniem z powodu dużej niezawodności; wpływa to na tak liczne instalacje - zarówno do archiwizacji serwerów, jak i pojedynczych komputerów.
Napędy 8 mm Tylko jeden producent, firma Exabyte, używa w swoich napędach kaset wideo 8 mm. Oferowane są napędy o różnych pojemnościach: 1,5 GB (3 GB z kompresją sprzętową), 5 GB (10 GB z kompresją sprzętową), 7 GB (14 GB z kompresją sprzętową) i 20 GB (40 GB z kompresją sprzętową). Chociaż wykorzystywane są kasety wideo, w procesie nagrywania danych nie jest używana technologia wideo. Firma Exabyte rozwinęła własną metodę zapisu danych na taśmach, zwaną helical scan. Główną przyczyną atrakcyjności napędów 8 mm jest wysoka przepustowość danych, wynosząca 6 MB/s w porównaniu z 10 MB na minutę dla napędów DAT. Powyższa cecha oraz bardzo duża pojemność taśm sprawia, że napędy te szczególnie nadają się do archiwizowania serwerów i stacji roboczych za pośrednictwem serwera.
DLT (Digital Linear Tape) Ostatnio pojawiła się nowa technologia zapisu danych na taśmach zapewniająca dużą pojemność, wysoką prędkość zapisu i dużą niezawodność. Została stworzona przez firmę Digital Equipment Corporation i istnieje na rynku od 1991 roku, a w grudniu 1994 roku firma Ouantum zakupiła ją wraz z technologią napędów magnetorezystywnych. Napędy DLT zapewniają pojemność od 35 do 70 MB z kompresją oraz prędkość przesyłu danych 5-10 MB/s. Prędkość ta jest zbliżona do napędów 8 mm, jednak te ostatnie mają niższą wydajność. W standardzie DLT taśma jest podzielona na równoległe, poziome ścieżki, a dane są zapisywane przez stacjonarną głowicę z prędkością 254-381 m/s. Jest to zasadnicza zmiana w porównaniu z tradycyjną technologią helical scan, gdzie dane są zapisywane paskami pod pewnym kątem przez obracającą się głowicę, a wolniejszy silniczek przesuwa taśmę pod głowicą. Napędy i taśmy DLT są bardzo trwałe. Przewidywany czas poprawnej pracy głowic zapisujących przy najgorszych warunkach temperaturowych i wilgotnościowych wynosi 15000 godzin, natomiast czas życia taśmy określany jest na 500000 zapisów i odczytów.
Napędy DLT są przeznaczone głównie do pracy z serwerami, kosztują od 6000 do 8000 dolarów w zależności od pojemności. Z automatycznym wymiennikiem taśm napędy DLT mogą pracować bezobsługowo.
Taśmy travan Firma 3 M stworzyła w oparciu o format QIC nowy standard kaset zwany travan. Został on zaakceptowany na rynku taśm dla komputerów osobistych i stacji roboczych; przewiduje się, że napędy oparte na tym standardzie zdominują rynek w ciągu następnych kilku lat. Standard travan wykorzystuje opatentowany przez firmę 3M interfejs. Napędy travan pasują do 3,5-calowych kieszeni, co umożliwia ich instalację w różnych systemach komputerowych i dodatkowo akceptują minikasety standardu QIC, co jest szczególnie istotne ze względu na ogromną ilość - 200 milionów - minikaset QIC użytkowanych na całym świecie. Kasety travan zawierają taśmę o szerokości 8 mm i długości 228 m. Obecnie dostępnych jest kilka rodzajów kaset i napędów travan opartych na różnych standardach QIC: • TR-1 - umożliwia zapisanie 400 MB danych bez kompresji, podwajając z nawiązką pojemność 125-metrowych minikaset QIC-80; • TR-2 - może zapisać 800 MB danych bez kompresji, a więc znacznie więcej od swojego pierwowzoru QIC-3010; • TR-3 - zmodyfikowany standard QIC-3020 o pojemności l ,6 GB bez kompresji; • TR-4 - najnowszy ze standardów travan, może pomieścić do 4 MB danych! Rozwój standardu travan według firmy 3M powinien doprowadzić do osiągnięcia w 1997 roku pojemności 15 GB bez kompresji. Należy zauważyć, że wszystkie napędy travan zapewniają kompresję w stosunku 2:1, co podwaja pojemność dla nie skompresowanych danych. Oznacza to, że na taśmie TR-4 można zmieścić do 8 GB danych. Typowy napęd TR-4, np. wyprodukowany przez firmę Hewlett-Packard Colorado Memory System, kosztuje poniżej 400 dolarów, a cena taśmy wynosi ok. 40 dolarów. Są one dostępne na całym świecie za pośrednictwem przedstawicieli i pośredników firmy 3M. Niska cena i duża niezawodność napędów i tasiemek travan sprawia, że standard ten staje się jednym z najlepszych rozwiązań zapewniających archiwizację systemu danych. Napędy od TR-1 do TR-3 łączy się za pośrednictwem kontrolera dyskietek lub portu równoległego. Polecam porty równoległe EPP lub ECP ze względu na łatwość użycia i dobrą wydajność. Napędy TR-4 często wykorzystują interfejs SCSI-2, który zapewnia wyższą wydajność niż kontroler dyskietek czy port równoległy. Typowy system TR-4, taki jak HP T4000, pracuje z szybkością 514 kB/s, czyli prawie czterokrotnie szybciej niż kontroler dyskietek, zapewniając zapis 31 MB na minutę bez kompresji lub 62 MB z kompresją 2:1. Można więc zarchiwizować przeciętny dysk w około 30 minut. Przy użyciu kontrolera dyskietek lub portu równoległego należałoby się spodziewać czterokrotnie dłuższego czasu, czyli ok. dwóch godzin w przypadku dysku l GB.
Napędy w standardzie travan oferują liderzy na rynku pamięci masowych: 3M, HP/Colo-rado, Conner Peripherals, Exabyte, Tandberg Data, AIWA, Pertec Memories, TEAC, Rexon,Sony.
Wybór najlepszego napędu W przypadku archiwizacji pojedynczego dysku o wielkości do 500 MB wybór napędu taśmowego jest stosunkowo prosty. Trudniej się zdecydować, jeśli mamy większy dysk lub chcemy archiwizować również dane z laptopa, a jeszcze trudniej przy konieczności składowania dysku serwera o wielkości 4 GB oraz stacji roboczych za pośrednictwem serwera. Przy wyborze napędu rozważ poniższe czynniki: • ilość danych wymagających archiwizacji, • wymagana prędkość przesyłu danych, • rodzaj taśmy, który najlepiej spełnia twoje wymagania, • koszt napędu i taśmy, • możliwości oraz zakres kompatybilności dołączonych do napędu sterowników i programu archiwizującego. Po rozpatrzeniu powyższych czynników, bez większych problemów znajdziesz najbardziej odpowiedni do swoich potrzeb napęd. Przed zakupem napędu warto poświęcić trochę czasu na przejrzenie reklam napędów w popularnych pismach komputerowych. Polecam szczególnie Computer Reseller News, Computer Hotline, The Processor, Computer Shopper. Pisma te przeznaczone są dla osób i firm pragnących kupić produkt bezpośrednio u producenta, z pominięciem pośredników. Po ich przeczytaniu będziesz miał rozeznanie co do dostępnych napędów i ich cen. Przeglądając informacje o napędach, nie zapominaj o dołączonych do nich programach. Sprawdź, czy spełniają twoje oczekiwania. Jest to szczególnie istotne w przypadku wykorzystywania napędu w środowisku innym niż Windows 95, ze względu na to, iż większość programów współpracuje z tym systemem.
Pojemność taśm Pierwszym czynnikiem, jaki powinieneś rozważyć, jest wybór napędu zapewniającego odpowiednią pojemność zarówno dzisiaj, jak i w najbliższej przyszłości. Najlepszy byłby napęd umożliwiający bezobsługową archiwizację, tzn. kiedy cała sesja archiwizacyjna mieści się na pojedynczej taśmie. Oznacza to, że w przypadku archiwizacji pojedynczego dysku o wielkości poniżej 250 MB wewnętrzny napęd Q1C-80 z powodzeniem wystarczy, a gdy musisz archiwizować kilka komputerów (z dyskami o podobnej wielkości) oraz laptopy, dobrym rozwiązaniem może być zewnętrzny napęd Q1C-80. W przypadku konieczności składowania dysków serwera, zakup napędu Q1C-80 o pojemności 125 MB (250 MB z kompresją programową) nie jest najlepszym rozwiązaniem. Lepiej wybrać jeden z napędów o dużej pojemności (zostały omówione szczegółowo w podrozdziale „Inne napędy o wysokiej pojemności"). Osobiście polecam zakup napędów DAT lub nowszych napędów travan, i to niezależnie od wymaganej pojemności. Spośród dostępnych na rynku są to relatywnie najtańsze napędy o dużej wydajności. Taśmy do nich są formatowane przez producenta, co pozwala na zaoszczędzenie czasu, i umożliwiają składowanie do 8 GB na taśmie travan TR-4 i do 24 GB na taśmie DAT DDS-3. Ważne jest, aby wybrać napęd o pojemności większej od największego posiadanego dysku lub partycji. Umożliwi to zautomatyzowanie procedury składowania, jako że nie będziesz musiał wymieniać taśmy podczas archiwizacji. Napędy DAT najczęściej łączy się za pomocą interfejsu SCSI, tak więc możesz użyć specjalnej karty SCSI podłączanej do portu równoległego lub wewnętrznego kontrolera SCSI. Ten ostatni posiada większą wydajność, ale podłączanie zewnętrznego napędu DAT do portu równoległego umożliwia archiwizację wielu komputerów. Taśmy DAT są również tańsze niż taśmy innego rodzaju.
Standardy taśm W następnej kolejności powinieneś rozważyć wybór napędu wykorzystującego odpowiedni standard taśm. Na przykład, jeśli posiadasz różne napędy, musisz wybrać takie tasiemki, aby były przynajmniej odczytywane w każdym napędzie. Nie ma prostego rozwiązania tego problemu. Wielu użytkowników dalej wykorzystuje napędy QIC, ponieważ był to pierwszy standard i wciąż jest rozwijany tak, aby zapewnić możliwość dużych składów. Jednak w przypadku dużych składów napędy DAT lub napędy 8 mm mogą okazać się lepszym zakupem. Jeśli chcesz zapewnić kompatybilność posiadanych napędów i taśm, musisz kupić napęd zgodny z posiadanymi napędami lub nowszy, ale kompatybilny. Na przykład jeśli chcesz kupić napęd o dużej pojemności, kompatybilny z taśmami Q1C-80, zastanów się nad wyborem napędu QIC-3010 o pojemności 2 GB, który czyta taśmy QIC-40 i Q1C-80. Jeśli jednak nie zależy ci na odczycie starszych taśm, najważniejszym czynnikiem wyboru będzie pojemność taśm i wydajność napędu. Wtedy najlepiej zdecydować się na napęd DAT lub napęd 8 mm. Pamiętaj, że cokolwiek wybierzesz, będziesz musiał później z tego korzystać. Jeżeli zarządzasz dużą siecią komputerową, zakup różnych rodzajów napędów nie jest najlepszym rozwiązaniem.
Wybór programu Następnie zastanów się nad wyborem odpowiedniego programu archiwizującego. Obecnie większość napędów sprzedawana jest razem z programami pracującymi pod systemem Windows 95. Jednak znalezienie dobrego programu dla Windows NT i Unixa może być trudniejsze. Większość systemów operacyjnych jest wyposażona we własne programy archiwizujące. Jeśli zamierzasz wykorzystywać to oprogramowanie, sprawdź, czy wybrany przez ciebie napęd z nim współpracuje. Więcej informacji na ten temat znajdziesz w podrozdziale „Oprogramowanie archiwizujące" w dalszej części tego rozdziału.
Prędkość składowania Jeśli wydajność jest dla ciebie ważniejsza niż cena i kompatybilność, rozważ zakup napędu DLT lub napędu 8 mm. Oferują one bardzo dużą pojemność i niespotykaną prędkość zapisu danych, dochodzącą do 6 MB/s. Prędkość ta dla nowszych napędów QIC o wysokiej pojemności wynosi 18 MB/min, a dla napędów DAT - 10 MB/min. Najsłabszymi napędami są starsze wersje napędów OIC-80. Przy podłączeniu poprzez kontroler napędu dyskietek, osiągają one prędkość od 3 do 4 MB/min, z wykorzystaniem dodatkowej karty - około reklamowanych 9 MB/min. Zewnętrzne napędy OIC-80 według danych producenta pracują z prędkościami od 3 do 8 MB/min, jednak wielkości 2-3 MB/min są bliższe prawdy.
Ceny napędów i taśm Ceny napędów i taśm w dużym stopniu zależą od miejsca, gdzie je kupujesz. Taka sama firmowa taśma DAT 12 GB może u jednego sprzedawcy kosztować 14 dolarów, a u innego 12. Podobnie może być w przypadku sformatowanych taśm QIC80 (120 MB), których cena waha się od 15 do 26 dolarów. Ponieważ sklepy oferują niższe ceny w przypadku zakupu trzech lub większej ilości taśm, kupuj je zawsze dużymi partiami. Przy wyborze napędu i taśm pamiętaj, że ich koszt jest zawsze dużo niższy niż koszty (frustracja i spadek wydajności) związane z utratą danych spowodowaną uszkodzeniem dysku. Biorąc pod uwagę fakt, że użytkownicy komputerów chętniej zarchiwizują dane, jeżeli będą mieć zainstalowany streamer, niż gdyby mieli używać w tym celu dyskietek; koszt streamera i tasiemek jest stosunkowo niewielki nawet w przypadku wykorzystywania komputera głównie dla rozrywki.
Instalacja streamerów Każdy ze standardów streamerów omówionych w tym rozdziale umożliwia kilka opcji instalacji, łącznie z wyborem pomiędzy napędem wewnętrznym a zewnętrznym. I wbrew pozorom nie jest to wybór oczywisty. Jeśli musisz składować dane z pojedynczego komputera z relatywnie małym dyskiem (do 500 MB), wewnętrzny streamer QIC-80 powinien spełnić twoje wymagania. Jeśli jednak archiwizujesz kilka komputerów z dyskami 500 MB lub jeśli musisz mieć możliwość odczytu zarchiwizowanych danych na wielu komputerach, lepszy będzie zewnętrzny streamer QIC-80. Jeśli masz jeszcze bardziej specyficzne potrzeby, poniżej przedstawiam kilka dodatkowych wskazówek: • W przypadku częstej archiwizacji dużego twardego dysku lub zarządzania dużą liczbą komputerów, jedynym sposobem zaoszczędzenia czasu pracy i ilości taśmy potrzebnej dla każdego komputera jest zakup streamera o dużej pojemności Q1C, DAT lub 8 mm. • Jeżeli zdecydujesz się na jeden z powyższych napędów, ale nie wszystkie posiadane komputery mają wolną kieszeń na streamer, dobrym rozwiązaniem może być kupno zewnętrznego streamera DAT lub 8 mm, który można podłączać do wszystkich komputerów. Unikaj niestandardowych streamerów, tzn. takich, które nie są zgodne ze standardami Q1C, DAT czy Exabyte. Ponieważ firma Exabyte jest jedynym producentem napędów 8 mm, taśmy tego producenta są czytane przez jego streamery. Nie polecam natomiast używania napędów wykorzystujących kasety wideo, ponieważ napędy te nie należą do żadnego standardu i są niepewne.
Streamer wewnętrzny Prawie wszystkie obecne na rynku streamery są przeznaczone do instalowania w standardowej kieszeni komputera. Większość streamerów może być zainstalowanych w kieszeniach 5,25 cala; niektóre mieszczące się w kieszeniach 3,5 cala posiadają dodatkowe obudowy, które umożliwiają zainstalowanie ich w kieszeni 5,25 cala. Streamery są głębokie na 12,7-22,9 cm; tyle też potrzebują wolnego miejsca we wnętrzu komputera. Aby zamocować streamer wewnątrz komputera, wykorzystaj tę samą kieszeń, w której instalowałbyś napęd dyskietek, twardy dysk lub napęd CD-ROM. Pamiętaj, że wybrana kieszeń musi być dostępna od zewnątrz. Standardowe kieszenie są wysokie na 4,3 cm i szerokie na 15 cm. Mniejsze mają wymiary 2,5 cm x 10 cm.
Streamery wewnętrzne wymagają dodatkowej wtyczki zasilającej, zazwyczaj takiej dużej jak do twardego dysku, jednak w przypadku niektórych modeli może być potrzebna mała wtyczka, jak do napędów dyskietek 3,5 cala. Jeśli nie posiadasz wolnej wtyczki, możesz kupić rozgałęziacz w sklepie komputerowym. Rozgałęziacz posiada kształt litery Y. Aby go podłączyć, musisz odłączyć wtyczkę zainstalowanego urządzenia i włożyć w jej miejsce jedną z końcówek rozgałęziacza. Do jednej z pozostałych końcówek podłącz odłączoną wtyczkę, a do drugiej - streamer. Więcej informacji o kablach zasilających znajdziesz w rozdziale 17. „ Napędy CD-ROM". Napęd wewnętrzny wymaga również kabla logicznego. Napędy QIC-40 i QIC-80 najczęściej podłącza się do kontrolera napędu dyskietek. W komputerach z jednym napędem dyskietek wykorzystujesz nie używane złącze kabla podłączanego do napędu dyskietek, a w komputerach z dwoma napędami musisz użyć kabla rozgałęziającego. Streamery wewnętrzne inne niż QIC-40 i QIC-80 zwykle wykorzystują specjalne karty rozszerzeń: QIC, SCS1, SCSI lub IDĘ. Kupując streamer, musisz zdecydować się na jedną z tych kart.
Streamer zewnętrzny Jeśli zamierzasz przenosić streamer pomiędzy komputerami, w każdym z nich musisz zainstalować kartę rozszerzeń. Streamery zewnętrzne DAT posiadają dołączone kable SCSI-port równoległy. Karty rozszerzeń posiadają różne złącza wyjściowe w zależności od wykorzystywanego przez Streamery interfejsu. Z reguły są to karty standardów QIC, SCSI, SCSI-2 lub IDĘ. Przy zakupie zewnętrznego streamera wymagającego karty rozszerzeń upewnij się, czy została dołączona właściwa karta, a jeśli nie - kup ją. Dodatkowo, jeżeli zamierzasz archiwizować wiele komputerów, musisz kupić karty dla każdego z nich. Streamery zewnętrzne są zasilane z transformatora podłączonego do standardowego gniazdka 220 V. Jeżeli decydujesz się na zakup modelu zewnętrznego, upewnij się, że posiadasz wolne gniazdko dla niego.
Oprogramowanie archiwizujące Po wyborze rodzaju taśm i określeniu pożądanej ich pojemności, musisz się zdecydować na jakiś program archiwizujący. Do większości streamerów jest dołączane oprogramowanie, którego możliwości są najczęściej wystarczające. Jednak programy firm trzecich kompatybilne ze streamerami często są bardziej funkcjonalne i elastyczne. Niektóre Streamery mogą posiadać dołączone oprogramowanie pracujące pod DOS-em. Jeżeli jednak wykorzystujesz streamer z poziomu systemu Windows, OS/2 lub Unix, możesz potrzebować dodatkowego programu. Jeżeli chcesz archiwizować stacje robocze za pośrednictwem serwera, sprawdź, czy wybrany streamer posiada odpowiednie oprogramowanie; inaczej będziesz musiał je dokupić.
Ważną cechą programów archiwizujących (większość programów ją posiada) jest ich zdolność do kompresji danych, czyli specjalnej funkcji umożliwiającej zapis większej ilości danych na taśmie o określonej długości. Niektóre programy wyróżniają się szczególnie efektywną kompresją. Przed zakupem warto również przejrzeć pisma komputerowe, takie jak PC Magazine, Windows Magazine, BYTE Magazine, w celu zapoznania się z dostępnymi streamerami i ich możliwościami: czy posiadają kompresję danych, jak szybko zapisują dane itp. Równie istotną cechą programu jest łatwość jego użycia. W przypadku trudnego w obsłudze programu prawdopodobnie będziemy sporządzać archiwum rzadziej niż powinniśmy. Niektóre nowsze programy archiwizujące posiadają opcję „Disaster Recovery". Opcja ta tworzy dyskietkę startową, której można użyć do szybkiego sformatowania napędu i zainstalowania podstawowych elementów systemu Windows 95 niezbędnych do pracy z tym napędem. Przy wyborze programu zwróć uwagę, czy posiada tę funkcję.
Oprogramowanie dołączone do streamera Przed zakupem streamera zorientuj się, czy oprogramowanie do niego dołączone spełnia twoje wymagania. Jeżeli nie, kup odpowiedni program. Programy dołączane do stre-amerów są najczęściej wystarczające, zakładając, że nie masz wysokich wymagań. Na przykład oprogramowanie dołączane do napędów QIC-80 nie umożliwia archiwizowania stacji roboczych za pośrednictwem serwera. Do tego celu musisz się zaopatrzyć w osobny program, kompatybilny z zainstalowaną siecią i posiadanym napędem. Jeśli korzystasz z systemów operacyjnych Windows 95, Windows NT, OS/2 bądź (Jnixa, musisz mieć program kompatybilny z danym systemem i z posiadanym napędem oraz musisz ustalić, czy oprogramowanie dostarczone ze streamerem spełni twoje wymagania.
Inne programy archiwizujące Wiele firm tworzy programy archiwizujące dla różnych typów streamerów i do różnych zastosowań. Na przykład niektóre firmy specjalizują się w programach kompatybilnych z większością sieci komputerowych. Inne z kolei w programach przeznaczonych dla systemów DOS i Windows, jeszcze inne dla OS/2 czy Unixa. Może być konieczne skontaktowanie się bezpośrednio z firmą w celu określenia, czy dane oprogramowanie jest kompatybilne nie tylko z wybranym streamerem, ale także z określonym środowiskiem sieciowym i systemem operacyjnym. Często oprogramowanie tych firm jest łatwiejsze w użyciu niż programy producentów streamerów. Te ostatnie posiadają często mało znane interfejsy, a ich komendy są trudne do zrozumienia, nawet jeśli od lat używa się oprogramowania archiwizującego. Nie jest rzadkością, że dołączona dokumentacja jest bardzo uboga, choć najczęściej ma to miejsce w przypadku tańszych modeli streamerów. Oprogramowanie firm programistycznych posiada często lepszą kompresję oraz dodatkowe funkcje, których nie ma w programach producentów napędów taśmowych. Najważniejsze możliwości programów wymieniam poniżej:
• Plan archiwizacji. Umożliwia zaplanowanie archiwizacji na czas, kiedy komputer nie jest wykorzystywany. • Tworzenie makr. Wykorzystywane przy wyborze opcji i plików do składowania. • Szybkie kasowanie taśmy. Używane przy kasowaniu całej zawartości taśmy. • Częściowe kasowanie taśmy. Używane przy kasowaniu części zawartości taśmy. • Odtwarzanie skasowanych danych. • Zabezpieczenie hasłem. Umożliwia zabezpieczenie dostępu do archiwum niepowołanym osobom. Producentów oprogramowania archiwizującego możesz znaleźć w wielu pismach komputerowych; zwróć szczególną uwagę na użyteczność poszczególnych programów. Jeżeli dany program ma dobre recenzje, pracuje na takich komputerach, jakie posiadasz, i ma funkcje, których potrzebujesz, to na pewno jest wart swojej ceny.
Napędy na wymienne nośniki Stale borykamy się z brakiem wolnego miejsca na dysku. Wystarczy sprawdzić ilość i wielkość plików dwóch głównych kartotek systemu Windows (zwykle C:\W1NDOWS i C:\WINDOWS\SYSTEM) - sięga ona 200 MB, a nawet więcej, zwłaszcza po zainstalowaniu kilku aplikacji. Wynika to z faktu, że prawie każdy program pracujący w środowisku Windows umieszcza swoje pliki w jednej z wymienionych kartotek. Są to głównie pliki o rozszerzeniach DLL, 386, VBX, DRV, TTF. Również Windows NT, OS/2, Unix i programy pracujący pod tymi systemami operacyjnymi wymagają olbrzymiej ilości miejsca na dysku. Do końca rozdziału skupimy się na zaawansowanych urządzeniach pamięci masowej: napędach na wymienne nośniki o dużej pojemności. Część z nich wykorzystuje nośniki tak małe jak dyskietki 3,5 cala, inne natomiast - nośniki wielkości 5,5 cala. Napędy te zapewniają pojemności od 35 MB do l GB i charakteryzują się całkiem dużą wydajnością. Wykorzystywane są do przechowywania i łatwego przenoszenia z jednego komputera na drugi dużej ilości danych - np. plików graficznych lub plików CAD. Można ich również używać do ukrywania ważnych danych przed wścibskimi kolegami. Napędy na wymienne nośniki mogą być również używane do archiwizacji danych. Jednak wysoka cena nośnika (dysku lub taśmy) czyni takie zastosowanie raczej nieopłacalnym. Na rynku jest dostępna szeroka gama różnych napędów na wymienne nośniki. Porównaj zalety poszczególnych urządzeń przed podjęciem decyzji o zakupie. Uważaj szczególnie na niepodawanie wartości niektórych parametrów - producenci robią to świadomie, jeżeli ich produkt odstaje od konkurencyjnego.
Rodzaje napędów na wymienne nośniki Wyróżniamy dwa rodzaje napędów na wymienne nośniki: magnetyczne i optyczne (zwane też magnetooptycznymi). Napędy magnetyczne wykorzystują do zapisu danych tę samą metodę, która jest stosowana w przypadku dyskietek i twardych dysków. Napędy magnetooptyczne używaj ą nowszej technologii, która jest kombinacją tradycyjnej metody magnetycznej i technologii laserowej. Napędy magnetyczne są znacznie szybsze od magnetooptycznych i zapewniaj ą podobną pojemność. Napędy magnetyczne firmy Syquest mają średni czas dostępu równy 14 ms, w porównaniu z 30 ms napędów magnetooptycznych. Napędy magnetooptyczne są poza tym dwukrotnie droższe. Z kolei nośniki magnetooptyczne są dużo tańsze od magnetycznych. Na przykład kaseta firmy Syquest o pojemności 270 MB kosztuje ok. 40 dolarów. Natomiast cena kasety magnetooptycznej o pojemności 230 MB wynosi 13 dolarów. Obydwa napędy wykorzystują różne interfejsy, niektóre SCSI lub IDĘ, a inne łączy się do portu równoległego komputera. To ostatnie rozwiązanie umożliwia używanie jednego napędu na kilku komputerach. Podłączenie i instalacja napędów jest podobna jak w przypadku innych urządzeń współpracujących z komputerem. Instalacja napędów wykorzystujących port równoległy na ogół jest również łatwa. Wymaga jednak użycia specjalnego kabla sprzedawanego razem z napędem oraz instalacji określonych sterowników.
Napędy magnetyczne Rynek napędów magnetycznych został opanowany przez niewielką grupę firm. Jedna z nich to lomega, która jest twórcą pierwszego powszechnie używanego napędu magnetycznego o dużej pojemności. Jest ona znana również z wytrzymałości kasetek. Inne czołowe firmy to Syquest i 3M. Nośniki wykorzystywane przez napędy magnetyczne przypominają tradycyjne dyskietki bądź twarde dyski. Na przykład popularny napęd Zip firmy lomega jest 3,5-calową wersją oryginalnego napędu firmy Bernoulli, a nowy napęd firmy 3M, LS-120, używa dysków o pojemności 120 MB wyglądających tak samo jak dyskietka! Standardami są rozwiązania firm Bernoulli i Syquest; inni albo wytwarzają ich napędy, albo produkty licencyjne. Na przykład napęd Jaz firmy Omega używa podobnych kaset jak Syquest. Napędy tych firm są trochę tańsze od produkowanych przez Bernoulli i Syquest. Jeśli rozważasz zakup jednego z tych napędów, dowiedz się, jakie posiada parametry i jaka jest długość gwarancji (Bernoulli oferuje trzyletnią gwarancję; Syquest - dwuletnią).
Napędy Bernoulli Dyskietki stosowane w napędach Bernoulli rozmiarami są zbliżone do 5,25calowych, tradycyjnych dyskietek, chociaż ich obudowa przypomina obudowę dyskietek 3,5 cala. Dostępne są różne pojemności dyskietek Bernoulli: 35 MB, 65 MB, 105 MB, 150 MB. Najnowszy napęd firmy lomega, Bernoulli MultiDisk 150, współpracuje ze wszystkimi wymienionymi wielkościami dyskietek. Dodatkowo MultiDisk czyta i zapisuje starsze dyskietki Bernoulli 90 MB oraz czyta dyskietki 40 MB. Napęd ten dostępny jest w wersjach wewnętrznej i zewnętrznej. Dyskietki Bernoulli znane są jako najbardziej trwałe z wymiennych nośników. Jeżeli zachodzi konieczność przesłania danych pocztą, to najlepiej w tym celu użyć właśnie tych dyskietek, jako że nośnik jest dobrze chroniony wewnątrz kasetki. Dyskietka Bernoulli zamknięta jest wewnątrz sztywnej kasetki, podobnie jak dyskietka 1,44 MB znajduje się wewnątrz sztywnej plastykowej obudowy. Wewnątrz napędu ciśnienie powietrza przyciska dyskietkę do głowicy. Wiele osób błędnie sądzi, że między dyskietką a głowicą nie ma bezpośredniego kontaktu. Wewnątrz napędu znajduje się stacjonarna płytka, zwana płytką Bernoulliego, której zadaniem jest sterowanie przepływem powietrza podczas obrotu dyskietki tak, aby była ona dociskana do głowicy. Przy pełnej prędkości głowica dotyka dysku, co powoduje jej zużywanie się. Napędy Bernoulli posiadają wbudowaną funkcję losowego wyszukiwania, która chroni pojedynczą ścieżkę przed zniszczeniem w chwilach gdy nie odbywa się ani zapis, ani odczyt. Napędy te charakteryzują się średnim czasem dostępu równym 18 ms, czyli porównywalnym ze średniej klasy twardymi dyskami. Dyskietki obracają się z prędkością zbliżoną do prędkości wolnych twardych dysków, tzn. ok. 3600 obrotów na minutę, i ze względu na zużycie powinny być okresowo wymieniane. Napęd MultiDisk 150 dostępny jest w wersji zewnętrznej i wewnętrznej. Model wewnętrzny podłącza się do kontrolera IDĘ dysku twardego, natomiast model zewnętrzny wymaga kontrolera SCSI i zasilany jest z transformatora podłączanego do uziemionego gniazdka 220 V. Inną odmianą napędu Bernoulli firmy lomega jest napęd Zip. Urządzenie to występuje w wersji zewnętrznej i wewnętrznej dołączanej do interfejsu SCSI oraz w wersji zewnętrznej korzystającej z portu równoległego komputera. Dyskietka Zip wyglądem przypomina dyskietkę 1,44 MB, lecz jest od niej dwukrotnie grubsza i mieści do 100 MB danych; napęd Zip charakteryzuje się czasem dostępu równym 29 ms i prędkością zapisu wynoszącą l MB/s przy użyciu modelu SCSI. Przy podłączeniu do portu równoległego prędkość ta ograniczona jest prędkością portu. Napędy Zip używają 3,5-calowych dyskietek wytwarzanych przez firmę lomega i nie można w nich używać standardowych dyskietek l,44 MB lub 720 kB. Tak więc nie można zamienić napędu 3,5 cala na napęd Zip. Napędy Zip są popularne jako zewnętrzne napędy używane do wymiany danych między komputerami, nie są jednak automatycznie rozpoznawane przez B10S ani system operacyjny. Ostatnio straciły nieco na popularności na rzecz nowych optycznych napędów LS-120, wprowadzonych przez firmy 3M i Matsushita, wspierane przez Compaqa i innych producentów sprzętu komputerowego.
Napędy Syquest Syquest produkuje napędy wykorzystujące nośniki 5,25 cala oraz 3,5 cala. Jednak dys Syquest, podobnie jak produkty firmy Bernoulli, można łatwo odróżnić od dyskiete Dyski 5,25 cala 44 MB i 88 MB używane w napędach SyDOS są umieszczone w prz zroczystym plastyku, podobnie jak kartridże SyDOS 3,25 cala 105 MB oraz Syque 270 MB. Nośnik wewnątrz obudowy wiruje z prędkością paru tysięcy obrotów na minut Syquest twierdzi, że średni czas dostępu dysków, jakie produkuje, wynosi około 14 ms Dyski dla napędów Syquest i SyDOS składają się ze sztywnego talerza wewnątrz pl stykowej osłony, jednak nie są tak dobrze chronione jak dyski Bernoulli. Niektóry uważają, że te dyski są delikatne. Gdy jednak nośnikowi nie zagraża opuszczenie i ziemię, można go bezpiecznie transportować. Przesłanie pocztą wymaga dodatkowe^ zabezpieczania kasety z nośnikiem. Napędy Syquest/SyDOS są dostępne w wersjach wewnętrznej i zewnętrznej. Mód wewnętrzny wymaga podłączenia do interfejsu IDĘ. Napęd zewnętrzny wymaga karty sterownika SCSI z zewnętrznym konektorem i zasilacza podłączonego do uziemione gniazdka 220 V.
Napędy Jaz Innym typem wymiennych dysków są napędy Jaz firmy lomega. Są fizycznie i funkcje nalnie identyczne z napędami Syquest, pod tym względem, że są naprawdę wymienni jednak różnią się większą pojemnością; dostępne są modele o pojemności l i 2 GE Niestety, same nośniki kosztują od 100 do 125 dolarów, czyli około siedem razy wiece niż DAT (Digital Audio Tape), który może pomieścić cztery razy więcej danych! Wysoki koszt nośnika sprawia, że w porównaniu z tradycyjnymi taśmami napędy Jaz przestaj być opłacalne, mogą być jednak użyteczne jako dodatkowe zewnętrzne dyski tward SCSI. Tabela 18.5 podaje specyfikację napędów Jaz. Tabela 18.5. Specyfikacja napędów Jaz Model Pojemność po sformatowaniu
l GB 2 GB 2000 milionów 1070 milionów bajtów bajtów
Szybkość transmisji: Maksymalna Średnia Minimalna
6,62 MB/s 5.4 MB/s 3.41 MB/s
Burst
l O MB/s
Średni czas wyszukiwania przy 10 ms odczycie Średni czas wyszukiwania przy 12ms zapisie 15,5-l 7,5 ms C/as dostępu Prędkość obrotowa dysku
5400 rpm
Rozmiar bufora
256 kB
Interfejs
Fast SCSI II
8,7 MB/s 7,35 MB/s 3,41 MB/s
Napędy SparQ Napęd SparQ to wymienny twardy dysk Syquest zaprojektowany jako tańsza alternatywa innych technologii o podobnych pojemnościach, takich jak Jaz i SyJet. Nośnikiem jest pojedynczy talerz o pojemności l GB. Przy cenie 99 dolarów za pudełko zawierające trzy dyski, koszt megabajta dysku SparQ jest dużo niższy od megabajta na innych dyskach wymiennych, jednak wciąż nie zbliża się do kosztów płytki CD-R. Napędy są dostępne w wersji wewnętrznej podłączanej do złącza IDĘ oraz w wersji zewnętrznej podłączanej poprzez port równoległy. Wersja podłączana do portu równoległego, podobnie jak wszystkie dyski korzystające z tego interfejsu, jest ograniczona przepustowością portu. Jednak wersja IDĘ napędów SparQ oferuje większą prędkość transmisji niż większość konkurencyjnych napędów. Prędkość w trybie burst interfejsu EIDE może osiągnąć do 16,6 MB/s (przy użyciu PIO modę 4), przy stałej prędkości transmisji osiągającej poziomo od 3,7 do 6,8 MB/s. Specyfikację napędów SparQ zawiera Tabela 18.6. Tabela 18.6. Specyfikacja napędów SparQ Pojemność po sformatowaniu
1008 milionów bajtów
Szybkość transmisji Maksymalna
6.9 MB/s
Minimalna
3.7 MB/s
Burst (PIO modę 4)
16,6 MB/s
Stalą prędkość transmisji w wersji podłączonej do portu równoległego
1,25
MB/s Średni czas wyszukiwania
12ms
Prędkość obrotowa dysku
5400 rpm
Napędy magnetooptyczne Napędy magnetooptyczne, wytwarzane obecnie przez wiele firm, wykorzystują do zapisu danych na dyskach 5,25 cala i 3,5 cala kombinację technologii zapisu magnetycznego i technologii laserowej. Sam nośnik i jego konstrukcja zbliżona jest do budowy dysku CD-ROM. Aluminiowa podstawa płyty pokryta jest warstwami plastyku, substancji magnetycznej i cząsteczkami aktywnymi optycznie -jest to mieszanka kobaltu, żelaza i terbu. Warstwa plastiku to warstwa ochronna, która czyni płytę praktycznie odporną na wstrząsy, zanieczyszczenia i uszkodzenia. Choć dyski magnetooptyczne są podobne do dysków CD-ROM, różnią się całkowicie metodą zapisu danych. Przy zapisie CD-ROM-u laser wypala w płycie rowek reprezentujący dane. Rowki te są później odczytywane przez inny laser i przetwarzane na dane komputerowe. W przypadku dysków magnetooptycznych nośnik nie jest wypalany ani żłobiony, lecz podczas zapisu promień lasera jest skupiany w celu uzyskania bardzo wąskiej ścieżki, o wiele cieńszej, niż byłaby możliwa do zapisania na nośniku magnetycznym.
Promień lasera podgrzewa ścieżkę i jednocześnie przekazuje słaby sygnał magnetyczny. Sygnał ten odbierany jest tylko przez wąskie pasmo podgrzanego nośnika, na którym zapisywane są dane. W przeciwieństwie do dysku CD-ROM, dysk magnetooptyczny może być teoretycznie zapisany nieskończoną ilość razy, ponieważ nośnik nie jest wypalany ani żłobiony. Podczas kasowania lub ponownego zapisu dysku jest on ponownie podgrzewany laserem i stare dane są magnetycznie usuwane tak, że można nagrać nowe. Podczas odczytu dysku napęd działa optycznie - laser odczytuje dane z dysku bez podgrzewania nośnika. Ze względu na bardzo niewielką grubość ścieżek na dysku magnetooptycznym, dane są na nim zapisywane bardzo gęsto. Obecnie na 3,5-calowym dysku można zmieścić do 230 MB danych, a na 5,25-calowym - l GB. Wielkości te mogą prowadzić do pewnego nieporozumienia, jako że dyski magnetooptyczne są dwustronne, podobnie jak dyskietki, ale napędy posiadają tylko jedną głowicę. Dlatego, aby zapisać drugą stronę dysku, należy go ręcznie obrócić. Tak więc w danej chwili tylko jedna strona dysku jest dostępna. Dla wielu programów napędy magnetooptyczne są wprost nieznośnie powolne, choć niektóre - z zastosowanymi ulepszeniami - zapewniają czas dostępu zbliżony do napędów magnetycznych. Jedną z przyczyn tak wolnej pracy jest mała prędkość obrotowa dysku, wynosząca ok. 2000 obrotów na minutę, czyli znacznie mniej niż 3600 obrotów na minutę dla wolnych twardych dysków. Kolejną przyczyną powolności tych napędów jest mechanizm głowicy odczytująco-zapisującej optycznie i magnetycznie zaawansowany, ale mechanicznie nie dopracowany. Ciężki mechanizm głowicy napędu magnetooptycznego potrzebuje więcej czasu na ustawianie się we właściwej pozycji niż głowice twardych dysków czy napędów magnetycznych. Średni czas dostępu w przypadku napędów magnetooptycznych wynosi ok. 30 ms. Jednak czas dostępu to nie wszystko. Proces powtórnego zapisu dysku zajmuje prawie dwa razy tyle czasu, co przeczytanie dysku. Ze względu na zasadę działania dysku magnetooptycznego, pole magnetyczne części dysku, która ma być zapisywana, musi być spolaryzowane przy zapisie. Dopiero podczas drugiego przejścia głowicy dane są faktycznie zapisywane. Proces ten nazywany jest twopass recording (nagrywanie w dwóch krokach). Nowe technologie magnetooptyczne wykorzystują pojedyncze przejście głowicy w procesie zapisu dysku. Są one rzeczywiście szybsze, ale także droższe. Kilku producentów wytwarza napędy o prędkości zbliżonej do 3600 obrotów na minutę. Wydajność tych napędów jest wyższa, ale cena również. Większość producentów napędów i dysków magnetooptycznych stosuje zalecenia organizacji ISO (International Standards Organization). Standard ten wymaga używania interfejsu SCSI, napędy 5,25 cala muszą odczytywać dwa różne formaty dysków: dyski z 512-bajtowymi sektorami i dyski z sektorami po 1024 bajty. Pierwsze mają pojemność ok. 600 MB, drugie - 650 MB. Kolejnym wymaganiem standardu ISO odnośnie napędów 3,5 cala, popularnych wśród pierwszych nabywców, jest odczyt dysków 128 MB. Niektórzy producenci oprócz wypełnienia zaleceń standardu ISO stosują własne formaty danych, tak aby zapewnić wzrost pojemności dysków 5,25 cala do 1,3 GB. Obydwa rodzaje napędów (3,5 cala i 5,25 cala) są dostępne w wersjach wewnętrznej i zewnętrznej.
Porównanie napędów na wymienne nośniki Wybranie odpowiedniego napędu przy coraz większym wyborze staje się coraz trudniejsze. Napędy firm lomega i Syquest otwierają zestawienie, ale mamy też napędy firm Exabyte i Avatar Peripherals. Tabela 18.7 zawiera porównanie najbardziej popularnych napędów dostępnych obecnie na rynku. Tabela 18.7. Dane techniczne napędów na nośniki wymienialne Typ napędu /Interfejs lomega Zip, port równoległy
Pojemność Średni czas Prędkość transmisji dysku (MB) dostępu (ms) danych (MB/s) 100 29 1.4
lomega Zip, SCSI
100
lomega Zip, IDĘ
100
29
1,4
Imation LS-120, wewnętrzny
120
70
4,0
Syquest 235, port równoległy
235
13,5
1,25
Avatar Shark 250, port równoległy
29
250
1,4
12
1,2
Avatar Shark, PCMCIA
250
12
2,0
Syquest 235, SCSI/IDE
235
13,5
2,4
lomega Jaz, SCS1
2000
12
5,4
Avatar Shark. IDĘ
250
12
2,5
Syquest Syjet, SCS1
1500
12
5,3
Syquest Syjet, IDĘ
1500
12
5,3
Syquest SparQ, IDĘ
1000
12
6,9
Syquest SparQ, port równoległy
1000
12
1,25
<150
0,15-2,4
Napędy CD-R
650
Przy zakupie napędu miej na względzie poniższe wskazówki: • Cena megabajta pamięci. Cenę dysku podziel przez jego pojemność, aby sprawdzić, ile płacisz za megabajt. Różnica w cenie będzie bardziej znacząca przy zakupie większej ilości dysków. (Nie zapominaj o cenie samego napędu). • Czas dostępu kontra potrzeba dostępu. Czas dostępu i prędkość odczytu danych ma znaczenie jedynie w przypadku, gdy potrzebujesz częstego i szybkiego dostępu do dysku. Jeżeli używasz napędu do archiwizacji, zadowoli cię wolniejszy napęd. Jeśli jednak chcesz uruchamiać programy bezpośrednio z tego napędu, wybierz szybszy napęd. • Kompatybilność. Jeśli pragniesz używać napędu z różnymi komputerami, wybierz napęd zewnętrzny z możliwością podłączenia do złącza SCSI lub portu równoległego. Sprawdź, czy napęd posiada sterowniki do każdego komputera, do którego zamierzasz go podłączyć
Nagrywarki CD-ROM Obecnie istnieje możliwość tworzenia własnych płytek CD-ROM - a także muzycznych płytek CD - przy użyciu jednego z wielu dostępnych modeli nagrywarek. Kupując zapi-sywalne dyski CD-ROM i zapisując (wypalając) własne dane, możesz przechowywać ogromne ilości danych przy koszcie dużo mniejszym niż w przypadku innych wymiennych nośników o swobodnym dostępie. Być może stwierdzisz, że napędy dysków wymiennych lomega Zip lub Jaz kształtują się podobnie cenowo, ale musisz mieć na uwadze, że zapisywalna płytka CD-ROM kosztuje od 5 do 10 złotych, podczas gdy nośnik napędu Jaz o pojemności l GB kosztuje ponad 100 złotych. Jeśli chodzi o przenoszenie danych pomiędzy różnymi systemami, musisz mieć pewność, że w drugim komputerze znajduje się taki sam napęd dysków wymiennych, gdyż w tym względzie nie ma jednolitego standardu. Taśmy magnetyczne mogą oferować mniejszy koszt megabajta, ale umożliwiają tylko dostęp liniowy. Dostęp do danych na taśmie jest dość czasochłonny i bardzo niewygodny w porównaniu z dostępem do danych na płytce CD-ROM. W porównaniu z innymi rodzajami wymiennych nośników, użycie nagrywarki CD-ROM jest bardzo efektywną cenowo i łatwą metodą transportowania dużych ilości danych i tworzenia kopii archiwalnych. Kolejną zaletą zapisywalnych płytek jest ich dużo większa trwałość po zapisaniu niż taśm magnetycznych i innych wymiennych nośników. Większość nagrywarek CD-ROM to urządzenia jednokrotnego zapisu (WORM write-once, read many), co oznacza, że gdy zapiszesz dane, nie można ich już zmienić. Standardem dla tej technologii są napędy CD-R (CD-Recordable). Ograniczenie jednokrotnego zapisu sprawia, że ten system nie jest idealny do tworzenia kopii zapasowych systemu ani do innych celów, do których dobrze byłoby móc wykorzystywać cały czas ten sam nośnik. Z drugiej strony, ponieważ koszt nośnika jest dość niski, być może stwierdzisz, że tworzenie trwałych kopii na płytkach jest bardziej ekonomiczne niż stosowanie taśm czy innych nośników. W każdym razie, dostępne są także nagrywarki CD-ROM, które mogą wielokrotnie zapisywać tę samą płytkę. Napędy CD-RW (CD ReWritable) mogą ponownie wykorzystać tę samą płytkę, co sprawia, że doskonale się nadają do różnorodnych celów archiwizacji danych. W następnych sekcjach poznamy oba standardy i zastanowimy się, jak można ich użyć do przechowywania własnych danych.
CD-R Napędy CD-R to w rzeczywistości urządzenia jednokrotnego zapisu; korzysta się w nich jednak ze specjalnych zapisywalnych płytek, które po zapisaniu mogą zostać odtworzone lub odczytane w dowolnym standardowym napędzie CD-ROM. Napędy CD-R są niezwykle użyteczne przy przechowywaniu danych archiwalnych lub przy tworzeniu tzw. master CD, które są wykorzystywane do masowej produkcji płytek CD-ROM.
Z powodu technicznych zmian w produkcji płyt CD, czasem mogą wystąpić problemy z odczytem zapisanych płytek w standardowych napędach CD-ROM. Większość tych problemów wynika po prostu z kiepskiej jakości napędu CD-ROM, który nie potrafi poradzić sobie ze śledzeniem ścieżki na płytce. Jednak niektóre bardzo stare napędy CD-ROM w ogóle nie potrafią odczytywać nośników takich jak płytki CD-R. Płytki CD-R wykorzystują to samo zjawisko, co standardowe płytki CD-ROM, odbijając od powierzchni płytki światło lasera emitowane przez głowicę napędu. Promień lasera odbija się lub nie, w zależności od zapisanych na płytce danych. Zasada działania jest taka sama, choć płytki CD-R różnią się od płytek CD-ROM zastosowaną technologią. W przypadku płytek CD-R, zamiast metalicznej lub szklanej powłoki zastosowano warstwę światłoczułego organicznego barwnika, który oryginalnie ma takie same właściwości odbicia jak nośnik standardowej płytki CD-ROM. Innymi słowy, napęd CD-ROM traktuje nie zapisany dysk CD-R jak jedną długą nie zapisaną powierzchnię. Gdy laser zapisujący zaczyna wypalać dane na płytce CD-R, rozgrzewa warstwę złota i znajdujący się ponad nią barwnik. W wyniku podgrzania, warstwa złota i barwnik zostają zmodyfikowane, zmieniając się tak, że rozpraszają światło lasera odczytującego tak samo jak wgłębienia na standardowej płytce CD-ROM. Napęd przyjmuje, że natrafił na wgłębienie, mimo że żadne wgłębienie nie istnieje, jest jedynie obszar nośnika o innych właściwościach odblaskowych, spowodowanych przez chemiczną reakcję będącą wynikiem rozgrzania złota i barwnika. To właśnie z powodu wykorzystania ciepła proces zapisu płytki CD-R często nazywa się „wypalaniem." Większość nagrywarek CD-R potrafi zapisywać dyski we wszystkich formatach, jakie dotąd omówiliśmy - od ISO 9660 aż do CD-ROM XA. Oprócz tego, nagrywarki potrafią także odczytać te formaty i w związku z tym służyć jako napędy CD-ROM ogólnego przeznaczenia. Ostatnio ceny nagrywarek znacznie spadły i obecnie można kupić takie urządzenie za mniej niż 1100 złotych, zaś koszt czystej płytki wynosi od 5 do 10 złotych.
Historia napędów CD-R Nagrywarki CD-R początkowo były używane do tworzenia kopii-matek, zanim uruchomiono produkcję seryjną płyt CD. Tworzono ok. 20 płyt CD do testowania, czy programy zostały nagrane poprawnie i czy działają. Następnie trzy z nich wysyłano do wytwórni płyt jako wzorce, z których powstawały tysiące krążków.
Nagrywanie płyt Nagrywarki CD-R z reguły pracują przy mniejszych prędkościach (maksimum to czterokrotna prędkość, choć zdarzają się modele mogące odczytywać płyty z sześciokrotną prędkością) niż standardowe odtwarzacze CD-ROM. Podczas nagrywania płyty jest na niej tworzona jedna długa spirala, poprzez wypalenie określonego wzoru na czystym nośniku. Ponieważ zapis na płycie nie może być skasowany jak na dysku twardym, jeżeli zacząłeś zapis danych, musisz doprowadzić go do końca, bo w przeciwnym razie zniszczysz płytę.
Jak wspominałem w rozdziale 17, pojedyncza prędkość to 150 kB/s. Zapis z czterokrotną prędkością oznacza, że komputer musi przesyłać dane z prędkością 600 kB/s. Jeżeli nie jest w stanie podołać temu zadaniu, otrzymasz komunikat: Buffer under-run (brak danych w buforze). Komunikat ten oznacza, że nagrywanie zostało przerwane, ponieważ zabrakło danych w buforze. Jest to najczęstszy problem występujący przy używaniu nagrywarek. W celu jego uniknięcia najlepiej kupić szybkie dyski SCSI jako źródło danych oraz wyposażyć komputer w dużą ilość pamięci RAM.
Programy nagrywające Do nagrywania płyt niezbędny jest specjalny program. Różni to nagrywarki od innych napędów wykorzystujących wymienne nośniki, których można używać od razu po zainstalowaniu. Program steruje wymianą danych pomiędzy urządzeniami o różnym formacie zapisu danych - napędem CD i twardym dyskiem. Jak pisałem w rozdziale 17. mamy kilka standardów zapisu danych na płytach CD-ROM, a oprogramowanie pozwala na wybór jednego z nich. Dawniej było konieczne, aby wszystkie pliki przeznaczone do nagrania zostały wcześniej ułożone w jeden plik. Taki plik zajmował wszystkie sektory płyty CD, czyli całość informacji o plikach i katalogach oraz informacje o wolumenie. Wielkość tego pliku jest taka sama jak suma wszystkich plików nagrywanych na płytę. Wynika stąd, że do nagrania pojedynczej płyty potrzebny jest dysk o pojemności co najmniej 1,5 GB (650 MB/CD x 2 = l ,3 GB + zapas = ok. l ,5 GB). Obecnie nie ma potrzeby tworzenia takiego pliku, jako że programy potrafią nagrywać dane bezpośrednio z oryginalnych plików. Proces nagrywania trwa w tym przypadku trochę dłużej, co wynika z faktu, że pliki na dysku nie są poukładane sekwencyjnie. W związku z tym wolniejsze twarde dyski mogą nie nadążyć z przekazywaniem danych przy czterokrotnej prędkości zapisu. Napędy CD-R potrafiące nagrywać płytki z różnymi prędkościami zwykle posiadają oprogramowanie umożliwiające przeprowadzenie symulacji nagrywania do celów testowych. Oprogramowanie odczytuje dane źródłowe ze wskazanych przez ciebie nośników i wyznacza maksymalną dostępną szybkość procesu nagrywania. Jednak nawet ta metoda nie jest całkowicie pewna. W czasie pomiędzy testową sesją a prawdziwym nagrywaniem mogą się zmienić pewne warunki, co może doprowadzić do błędu w nagrywaniu. Z tego powodu najlepiej pobierać dane źródłowe do nagrania z lokalnego twardego dysku, a nie na przykład z dysku sieciowego czy płyty CD-ROM. Oprócz tego lepiej jest korzystać z urządzeń SCSI niż IDĘ, gdyż SCSI lepiej sobie radzi ze wspólnym dostępem urządzeń do tego samego interfejsu.
Płyty CD-R jako pamięć masowa Koszt nośnika CD-R jest stosunkowo niewielki. Jednak większość nośników pamięci masowej posiada możliwość wielokrotnego zapisu, natomiast płyty CD-R takiej możliwości nie mają (choć istnieje inny rodzaj płyt - CD-RW - z możliwością powtórnego nagrywania).
Przy zakupie powyżej 25 sztuk, cena pojedynczej płyty spada poniżej 5 dolarów. Nośniki DAT, QIC czy DLT są znacznie droższe i nawet przy znacznych upustach ich cena waha się w granicach od 20 do 100 dolarów. Inne wymienne nośniki kosztują w granicach od 75 do 300 dolarów. Chociaż taśmy są bardziej pojemne i ich koszt w przeliczeniu na l MB jest mniejszy, to dostęp do nagranych na nich danych jest bardzo czasochłonny. Z kolei nośniki wymienne są droższe, a także przy przesyłaniu danych wymagają, aby odbiorca posiadał taki sam rodzaj napędu. W porównaniu z taśmami i nośnikami wymiennymi, używanie nagrywarek i płyt CD może być atrakcyjne finansowo, szczególnie przy przesyłaniu dużych plików oraz przy tworzeniu kopii archiwalnych. Dodatkową korzyścią płyt CD jest znacznie dłuższa trwałość nośnika. Wadą płyt CD-Rjest natomiast brak możliwości powtórnego nagrania.
Wielosesyjność Choć prawdziwe jest stwierdzenie, że dane na płytce CD-R mogą być zapisane tylko raz, większość napędów CD-R i pakietów oprogramowania umożliwia zapisywanie na pojedynczym dysku kilku sesji. To oznacza, że możesz zapisać dysk tylko częściowo, a później dopisać kolejne sesje. Tak jak w przypadku każdego wielosesyjnego dysku, aby móc odczytać dodatkowe sesje, musisz posiadać napęd zgodny ze standardem XA. W przeciwnym razie będziesz mógł skorzystać jedynie z danych zawartych w pierwszej sesji.
CD-RW Napędy CD-RW (CD-ReWritable), zdefiniowane w części III standardu Orange Book, stają się coraz popularniejszą alternatywą napędów CD-R. W napędach CDRW stosuje się nieco inny typ dysku, który można ponownie wykorzystać co najmniej tysiąc razy. Choć nieco droższe niż płytki CD-R, płyty CD-RW są jednak dużo tańsze niż dyski magnetooptyczne i inne dyski wymienne. To sprawia, że CD-RW jest cenną technologią do sporządzania kopii zapasowych systemu, archiwizacji plików i wszelkich innych zadań wymagających zapisu danych na trwałym nośniku. Napędy CD-RW czasem nazywa się kasowalnymi CD lub CD-E (CD-eresable) Wadą CD-RW jest niższy stopień odbicia powierzchni dysku, co wpływa na pogorszenie jego odczytywalności. Wiele standardowych napędów CD-ROM i CD-R nie radzi sobie z odczytem płytek CD-RW, choć obecnie to ograniczenie stopniowo odchodzi w przeszłość. Co ważniejsze jednak, napędy CD-RW potrafią zapisywać zwykłe płytki CD-R i odczytywać płytki CD-ROM. Dzięki temu, kupując napęd CD-RW, możesz zaspokoić wszystkie potrzeby: korzystać ze standardowych płytek, jednokrotnie zapisywać płytki CD-R i wielokrotnie zapisywać płytki CD-RW.
Płytki CD-RW W przypadku płytek CD-R, światłoczuła warstwa nośnika zmienia się z odbijającej na nie odbijającą pod wpływem promienia lasera nagrywającego. Taka zmiana stanu jest trwała, czyli płytkę CD-R można zapisać tylko raz. Dyski CDRW także są pokryte substancją zmieniającą stopień odbicia pod wpływem rozgrzania laserem, jednak w odróżnieniu do płyt CD-R, ta zmiana nie jest nieodwracalna. Aktywna warstwa płyty CD-RW to stop Ag-In-Sb-Te (srebro-ind-antymon-tellur), który w oryginalnym stanie ma strukturę polikrystaliczną, która sprawia, że promień lasera jest odbijany. Aktywny materiał pokrywa warstwę organicznego nośnika, w którym wyryto spiralną bruzdę w celu zapewnienia precyzyjnego prowadzenia głowicy, co daje w wyniku dokładne ułożenie wgłębień i wzniesień oraz informacje o czasie absolutnym. Gdy napęd CD-RW zapisuje dysk, laser wykorzystuje swoją najwyższą moc, Pwrite, w celu rozgrzania materiału aktywnego do temperatury pomiędzy 500 a 700 stopni Celsjusza, powodując jego roztopienie. W płynnym stanie cząsteczki materiału aktywnego mogą się dowolnie poruszać, przez co materiał traci strukturę krystaliczną i staje się amorficzny. Gdy materiał zakrzepnie w stanie amorficznym, traci swoje właściwości odbijania światła. Przez włączanie i wyłączanie lasera napęd pozostawia część dysku w stanie krystalicznym, co odpowiada wzniesieniom, a część dysku w stanie amorficznym, analogicznie do wgłębień zwykłej płytki CD-ROM. Aby odwrócić fazę specyficznego obszaru na dysku, laser operuje z nieco mniejszą mocą (Perase) i rozgrzewa materiał aktywny do około 200 stopni Celsjusza, dużo poniżej temperatury topnienia, ale powyżej temperatury, w której materiał przechodzi ze stanu amorficznego w krystaliczny i ponownie zaczyna odbijać światło lasera. Zwróć uwagę, że w przypadku płytek CD-RW nie ma jawnego etapu kasowania danych podczas ponownego zapisu dysku. Napęd steruje impulsami lasera o mocy wystarczającej do wytworzenia w odpowiednich miejscach krystalicznych i amorficznych obszarów (wgłębień i wzniesień), bez względu na poprzedni stan nośnika w danym miejscu. W ten sposób napęd zapisuje wgłębienia i wzniesienia. Nie ma możliwości „wykasowania" dysku CD-RW bez zapisania na nim nowych danych.
Odczyt płytek CD-RW Standard oryginalnych płytek CD określa, że obszar wzniesienia powinien mieć współczynnik odbicia minimum 70%, co oznacza, że obszar wgłębienia powinien odbijać mniej niż 70% skierowanego na niego światła. Maksymalny współczynnik odbicia dla wgłębień nie powinien przekraczać 28%. We wczesnych latach 80., kiedy powstawały te standardy, fotodiody używane w odtwarzaczach CD były stosunkowo mało czułe, więc standardy współczynników odbić dostosowano do ich możliwości. W przypadku dysku CD-RW współczynnik odbicia dla wzniesień wynosi od 15 do l 25%, o wiele poniżej wymaganego minimum. Wszystkie poziomy odbić płytek CD-RW są około trzykrotnie niższe niż poziomy zdefiniowane w oryginalnym standardzie. Jednak względna różnica pomiędzy poziomami odbić wgłębień i wzniesień przekracza 60% wymagane przez oryginalny standard CD-ROM, zaś produkowane obecnie fotodiody
doskonale sobie radzą z rozróżnianiem poziomów współczynników odbicia płytek CD-RW. Z tego powodu, choć nie wszystkie napędy CD-ROM odczytują płytki CD-RW, nie ma technicznych ograniczeń, aby nowe modele nie mogły tego robić. Philips, firma w znacznym stopniu odpowiedzialna za rozwój technologii CD-RW, w połączeniu z Hewlett-Packardem, opracowała specyfikację multiread, zaaprobowaną przez stowarzyszenie OSTA (Optical Storage Technology Association). Ta specyfikacja określa poziomy wzmocnienia wymagane w standardowych napędach CD-ROM do odczytu dysków CD-RW. Jeśli popularność CD-RW będzie dalej rosła w tym samym tempie, prawdopodobne jest, że wkrótce większość dostępnych na rynku napędów CD-ROM będzie zgodna ze specyfikacją multiread, dzięki czemu będzie mogła odczytywać także płytki CD-RW. Zanim to jednak nastąpi, może się okazać, że twoje płyty CD-RW mogą być odczytane tylko w innym napędzie CD-RW.
Rozdział 19. Drukarki Możliwość tworzenia drukowanych wersji (nazywanych często twardymi kopiami) dokumentów jest podstawową funkcją komputerów PC. Drukarki, wraz z modemami, stały się wymaganym i potrzebnym wyposażeniem komputerów. Oczywiście, nie oznacza to, że każdy komputer musi posiadać osobną drukarkę. Jednym z głównych powodów zakładania sieci lokalnej LAN (Local Area Networking) w świecie biznesu jest możliwość udostępnienia drukarek wielu użytkownikom. Na rynku znajduje się ogromna liczba drukarek, różniących się od siebie możliwościami i szybkością. W tym rozdziale dokładnie opisano założenia wszystkich technologii drukowania oraz podstawowe typy używanych obecnie drukarek. Został również opisany sposób funkcjonowania, instalowania oraz przezwyciężania kłopotów związanych z różnymi drukarkami.
Technologia drukowania Istnieją trzy podstawowe typy technologii drukowania stosowane w drukarkach podłączanych do komputerów PC, różniące się od siebie metodą przenoszenia obrazu na papier. Te trzy technologie to: • Laser. Drukarki laserowe tworzą za pomocą lasera elektrostatyczny obraz całej strony na światłoczułym bębnie. Następnie na bęben nanoszony jest barwiony proszek, nazywany tonerem. Przylega on tylko do naładowanych elektrosta-tycznie obszarów, odpowiadających znakom lub rysunkom na stronie. Bęben cały czas się obraca i w pewnym momencie toner zostaje przeniesiony na stronę, tworząc na niej obraz. Tę samą technologię zastosowano w kserokopiarkach. • Strumień atramentu. Drukarki atramentowe, zgodnie z tym, co sugeruje ich nazwa, posiadają niewielkie dysze rozpylające na stronę zjonizowany atrament. Namagnesowane płytki ukierunkowują atrament, który opada na papier zgodnie z odpowiednim wzorcem, formując litery lub rysunki.
• Igłowe. Drukarki wykorzystujące technikę igłową (ang. dot matrix oznacza dosł. matrycą kropek) posiadają wzorzec z zaokrąglonych na końcu igieł, którym przyciskają do strony nasyconą atramentem taśmę. Igły są ułożone w prostokątną siatkę (nazywaną matrycą). Poszczególne kombinacje igieł tworzą różne znaki oraz rysunki. Ogólnie rzecz biorąc, najlepszą jakość oferują drukarki laserowe. Zaraz za nimi znajdują się drukarki atramentowe, natomiast daleko z tyłu, na trzeciej pozycji, plasują się drukarki igłowe (wykorzystujące matrycę kropek). Ceny drukarek, tak samo zresztą jak i innych części komputerowych, na przestrzeni ostatnich lat ogromnie się obniżyły, dzięki czemu drukarki laserowe, jeszcze niedawno niezwykle drogie, stały się dostępne dla użytkowników na niemal każdym poziomie. Drukarki atramentowe i igłowe znalazły swoje miejsce w większości u wyspecjalizowanych użytkowników - drukarki atramentowe są wykorzystywane do tworzenia tanich, kolorowych wydruków, drukarki igłowe są stosowane przy komercyjnych aplikacjach drukujących ciągłe dane wyjściowe oraz tam, gdzie potrzebnych jest więcej kopii drukowanych dokumentów. Pomijając potrzeby wyspecjalizowanych użytkowników, drukarki laserowe są lepsze od atramentowych pod niemal każdym względem. Przy opisywaniu możliwości i cech różnych drukarek, niemal zawsze używa się takiej samej terminologii. Poniżej wyjaśniono część tej terminologii oraz sposób, w jaki (o ile) odnosi się ona do różnych typów drukarek. Zostało również opisane, na co powinieneś zwracać uwagę kupując nową drukarkę.
Rozdzielczość druku Pojęcie rozdzielczości wykorzystuje się do określania ostrości i czystości wydruku. Wszystkie techniki drukowania sprowadzają się do tworzenia obrazu poprzez umieszczanie na papierze serii punktów. Rozdzielczość drukowania i jakość wydruku jest określana rozmiarem i liczbą tych punktów. Na przykład, jeśli spojrzysz na stronę tekstu wydrukowaną przez drukarkę igłową o niskiej rozdzielczości, możesz zauważyć wzorzec punktów tworzących określony znak. Dzieje się tak dlatego, że punkty są stosunkowo duże i mają tę samą wielkość. Jednak już na wydrukach drukarki laserowej w wysokiej rozdzielczości, poszczególne znaki wyglądają dobrze, ponieważ punkty są znacznie mniejsze i często różnią się od siebie wielkością. Rozdzielczość drukowania jest aktualnie mierzona w punktach na cal (dpi). Jednostką tą wyraża się liczbę osobnych punktów, które może nanieść drukarka rysując pojedynczą linię o długości jednego cala. Większość drukarek działa z tą samą rozdzielczością w pionie i w poziomie, więc specyfikacja 300 dpi oznacza 300x300 punktów na obszarze jednego cala kwadratowego. Jak łatwo można obliczyć, drukarka 300 dpi może na tym obszarze umieścić 90 000 punktów. Istniejąjednak drukarki posiadające inne rozdzielczości w pionie i poziomie, na przykład 600x1200 dpi, co oznacza, iż drukarka na obszarze jednego cala kwadratowego potrafi umieścić 720 000 punktów. Ważne jest, by mieć świadomość, że rozdzielczość drukowanej strony jest dużo wyższa od rozdzielczości typowego monitora PC. Pojęcie rozdzielczości'}^ również stosowane w odniesieniu do monitorów, jednakże dotyczy liczby pikseli, na przykład 640x480 lub 800x600. Licząc kategoriami stosowanymi w drukarkach, typowy monitor PC posiada
rozdzielczość tylko 50-80 dpi. Dpi monitora możesz określić mierząc aktualną szerokość i wysokość obrazu na ekranie i porównując jaz wymiarami obrazu w pikselach. W związku z tym, używany przez producentów oprogramowania i sprzętu termin WYSI-WYG (What You See fs What You Get—to, co widzisz, jest tym, co otrzymasz) odpowiada prawdzie tylko w najogólniejszym sensie. Wszystkie drukarki, nie licząc tych o najniższych rozdzielczościach, są w stanie tworzyć wydruki o rozdzielczości o wiele wyższej niż to, co może wyświetlić monitor. 90 000 punktów na cal kwadratowy może sugerować niezwykły poziom odwzorowania detali, ale w rozdzielczości 300 dpi drukowane znaki posiadają zauważalnie postrzępione ukośne linie (zobacz rysunek 19.1). Istnieją dwa sposoby poprawienia jakości wydruku i wyeliminowania nierówności. Jednym z nich jest zwiększenie rozdzielczości. Obecnie używane drukarki laserowe drukują z rozdzielczością wynoszącą co najmniej 300 dpi, jednak częściej 600 dpi. Najdroższe i najlepsze modele potrafią drukować nawet z rozdzielczością 1200 dpi. Kontrast mogą stanowić komercyjne drukarki offsetowe (wykorzystywane na przykład przy drukowaniu tej książki), które najczęściej drukują z rozdzielczością od 1200 do 2400 dpi. Do eliminowania najwidoczniejszych nierówności wystarczająca jest już rozdzielczość 600 dpi.
Rysunek 19.1. Ponieważ drukowane znaki są tworzone dzięki połączeniu osobnych kropek, rysunki w niższych rozdzielczościach mogą zawierać ukośne linie, w których bardzo widoczny jest efekt poszarpanych krawędzi
Poprawianie rozdzielczości Istnieje również możliwość polepszenia jakości wydruku bez podnoszenia rozdzielczości. Można tego dokonać dzięki zastosowaniu punktów o różnej wielkości. Technika ta pochodzi z firmy Hewlett Packard i została nazwana Resolution Enhacement Technology (RET). Technologia RET w sposób ukazany na rysunku 19.2 wykorzystuje mniejsze punkty do wypełniania nierówności krawędzi tworzonych przez punkty o większym rozmiarze. Ponieważ punkty są tak niewielkie, patrząc gołym okiem, zobaczysz końcowy efekt w postaci gładkiej, ukośnej linii. Inni producenci stworzyli własne wersje tego pomysłu, nadając im inne nazwy, jak na przykład „poprawianie brzegów" (edge enhancement).
Rysunek 19.2.
Technologia poprawiania rozdzielczości (RET)lączy punkty o różnej wielkości, by zmniejszyć Nierówności ukośnych linii w wydrukach o niskiej rozdzielczości
Ten typ poprawiania rozdzielczości można wykorzystać tylko w drukarkach laserowych i atramentowych. Ponieważ drukarki igłowe tworzą znaki poprzez fizyczne uderzanie igłami w drukowaną stronę (poprzez nasyconą tuszem taśmę), nie mogą drukować punktów o różnej wielkości.
Interpolacja Istnieje również wiele drukarek, które tworzą wydruki o wyższej rozdzielczości wykorzystując do tego proces nazywany interpolacją. Problem rozdzielczości drukowania nie zamyka się tylko w fizycznych ograniczeniach możliwości tworzenia przez drukarkę punktów o mniejszych rozmiarach; rysunki w wyższej rozdzielczości wymagają również przetworzenia przez drukarkę większej liczby danych. Drukarka 600 dpi musi umieszczać do 360 000 punktów na cal kwadratowy, podczas gdy drukarka 300 dpi na tym samym obszarze nigdy nie umieszcza więcej niż 90 000 punktów. Z tego powodu, przetworzenie obrazu w większej rozdzielczości wymaga co najmniej cztery razy więcej pamięci oraz dokonania dużo większej ilości obliczeń. Niektóre drukarki są fizycznie w stanie drukować w wyższej rozdzielczości, lecz mają zbyt mało pamięci i mocy obliczeniowej. Dlatego drukarki mogą przetwarzać obrazy w rozdzielczości 600 dpi, a następnie interpolować (lub skalować) wyniki nawet do rozdzielczości 1200 dpi. Choć jakość wydruku w interpolowanej rozdzielczości 1200 dpi jest lepsza niż w 600 dpi, wydruki drukarki pracującej w nie interpolowanej rozdzielczości 1200 dpi będą zauważalnie lepsze, choć również i znacznie droższe. Przy zakupie drukarki jest bardzo ważne, byś sprawdził, czy podane przez producenta rozdzielczości są interpolowane.
Jakość wydruków drukarek igłowych Drukarki igłowe znacząco się różnią od drukarek atramentowych i laserowych. Naj- : istotniejszą różnicą jest to, iż w odróżnieniu od atramentowych, drukarki igłowe nie j przetwarzają całej strony, lecz raczej pracują z ciągami znaków. Rozdzielczość drukowania drukarki igłowej nie zależy od pamięci drukarki czyjej mocy przetwarzania, lecz raczej od jej możliwości mechanicznych. Siatka punktów wykorzystywana przez drukarki igłowe do drukowania znaków to nie ustawienia danych w pamięci ani też wzór na światłoczułym bębnie; siatka ta jest formowana
przez matrycę metalowych igieł, których różne kombinacje uderzają w stronę wydruku. Z tego powodu rozdzielczość drukarki zależy od liczby igieł, których najczęściej jest 9 lub 24. Ponieważ 24-igłowa drukarka wykorzystuje więcej igieł do tworzenia tego samego znaku, wykorzystywane przez nią igły są znacznie mniejsze od igieł wykorzystywanych w drukarkach 9-igłowych. W związku z tym, rozmiar poszczególnych punktów również jest odpowiednio mniejszy. Tak jak w innych typach drukarek, mniejszy rozmiar igieł umożliwia uzyskanie ostrzejszych krawędzi i wyższej jakości wydruków. W drukarkach igłowych nie można zastosować interpolacji ani też poprawić rozdzielczości dzięki wykorzystywaniu punktów o różnych rozmiarach. Jedyną metodą uzyskania lepszego wydruku jest zmiana drukarki 9-igłowej na 24-igłową- nie ma rozwiązania programowego, które umożliwiłoby polepszenie jakości wydruku. Producenci drukarek 24-igłowych często twierdzą, iż produkowane przez nich urządzenia posiadają wysoką jakość wydruku (NLQ - Near Letter Quality - jakość bliska listom). Jest to najczęściej prawdą w dosłownym sensie, ponieważ jakość wydruku tych drukarek jest prawie (ale nie całkiem) taka, jaką chciałbyś osiągnąć przy drukowaniu korespondencji. Drukarki igłowe nadal są stosowane, gdy zachodzi potrzeba tworzenia kilku kopii dokumentu, lecz nie oferują rozdzielczości ani jakości wydruku wystarczającej, by można je było wykorzystywać do drukowania profesjonalnie wyglądających listów lub dokumentów biurowych.
Języki opisu strony (PDL) Drukarki laserowe i atramentowe są czasem określane jako drukarki stron, ponieważ przetwarzają w pamięci całą stronę, zanim przeniosą ją na papier. Zupełnie inaczej odbywa się to w drukarkach igłowych, które bazują na znakach. Gdy komputer komunikuje się z drukarką, robi to za pomocą specjalnego języka, nazywanego językiem opisu strony lub w skrócie PDL (Page Description Language). Zadaniem języka opisu strony jest przekonwertowanie wszystkich aspektów drukowanego dokumentu na strumień danych, który może zostać przesłany do drukarki. Gdy kod PDL dotrze do drukarki, zostaje przekonwertowany poprzez jej wewnętrzne oprogramowanie na wzór punktów, które zostaną wydrukowane na stronie. Aktualnie wykorzystuje się dwa języki opisu strony: PCL i PostScript, które stały się już właściwie standardem fabrycznym. Języki te zostały omówione w dalszej części rozdziału. Drukarki, które nie obsługuj ą języka opisu strony, stosują w celu kontroli wyglądu wydruku sekwencje kodów sterujących umieszczanych wewnątrz drukowanego dokumentu (więcej informacji znajdziesz w podrozdziale „Kody sterujące", znajdującym się w dalszej części tego rozdziału). Bez względu na to, czy drukarka wykorzystuje technikę PDL, czy też używa kodów sterujących, w komputerze musi zostać zainstalowany sterownik konwertujący dokument na język zrozumiały dla drukarki. Dane muszą zostać prze-konwertowane i nie ma tu znaczenia ani program, z którego drukujesz, ani oryginalny format dokumentu.
PCL (Język kontroli drukarki) PCL (Printer Control Language) jest językiem opisu strony zaprojektowanym we wczesnych latach 80. przez firmę Hewlett Packard dla swoich produktów. Z powodu dominacji HP na rynku drukarek, język PCL stał się standardem emulowanym przez wielu innych producentów. PCL zawierał dużą ilość poleceń oddzielonych od aktualnie drukowanego tekstu i zaprojektowanych do przełączania ważnych funkcji i właściwości drukarki. Polecenia te można było podzielić na cztery kategorie: • Kody sterujące. Są to standardowe kody ASCII reprezentujące nie znaki, lecz funkcje, takie jak na przykład powrót karetki (CR), przejście do następnej strony (FF) czy też przejście do następnego wiersza (LF). • Polecenia PCL. Są to polecenia tego samego typu, co wykorzystywane w drukarkach igłowych kody sterujące. Polecenia te składają się głównie z kodów kontrolnych PCL i zawierają specyficzne dla danej drukarki odpowiedniki parametrów dokumentu, takie jak formatowanie strony czy ustawienia czcionek. • Polecenia HP-GL/2 (Hewlett Packard Graphics Language). Są to polecenia wykorzystywane przy druku grafiki wektorowej jako części dokumentu. Polecenia HP-GL/2 składają się z dwuliterowych kodów poprzedzonych jednym lub większą ilością argumentów, wyjaśniających, w jaki sposób drukarka powinna przetworzyć polecenie. • Polecenia PJL (Printer Job Language). Polecenia te umożliwiają drukarce dwukierunkową komunikację z komputerem, wymieniają statusy zadań i informacje identyfikacyjne drukarki oraz decydują, który PDL drukarka powinna wykorzystywać do specyficznych zadań i innych funkcji panelu kontrolnego. Polecenia PJL są stosowane do określania zadań drukarki i nie stosuje się ich podczas drukowania określonych dokumentów. PCL rozwijał się dotrzymując kroku nowym możliwościom drukarek. Wersje l i 2 języka PCL były wykorzystywane przez firmę Hewlett Packard we wczesnych latach 80. w jej drukarkach atramentowych oraz uderzeniowych drukarkach rozetkowych i nie mogły być postrzegane jako pełne języki opisu strony. Pierwsza drukarka laserowa wyprodukowana w 1984 roku wykorzystywała PCL 3, najnowsze modele korzystają z PCL 6. W tabeli 19.1 zostały wypisane różne wersje PCL, wraz z najważniejszymi cechami dodawanymi w każdej kolejnej wersji i z informacją, w których modelach drukarek laserowych HP dany PCL był wykorzystywany. Choć PCL jest w całości zaprojektowany przez Hewlett Packarda i stanowi jego własność, długotrwała dominacja tej firmy na rynku drukarek sprawiła, że stał się standardem. Wiele innych firm produkuje drukarki korzystające z PCL, często też daną drukarkę reklamuje się jako zgodną z określonym modelem Hewlett Packarda.
Postscript PostScript jest językiem opisu strony rozwijanym przez firmę Adobe. Po raz pierwszy został wykorzystany w drukarce Apple LaserWriter w 1985 roku. PostScript od samego początku miał duże możliwości, takie jak skalowalne czcionki i wspieranie grafiki
Rozdział 19. • Drukarki
1087
Tabela 19.1. Wersje języka kontroli drukarki (PCL) firmy Hewlett Packard Wersja Data PCL3 Maj 1984
Modele Ulepszenia LaserJet LaserJet Formatowanie całej strony, Plus grafika wektorowa
PCL4
Dodano kroje pisma, makra, LaserJet Series II obsługę większych, bitmapowych czcionek oraz LaserJet IIP, obsługę grafiki raster IIP Plus Kompresowane czcionki
Listopad 1985
PCL4e Wrzesień 1989 PCL 5 Marzec 1990 PCL5e Październik 1992
PCL5c Październik 1994 PCL 6 Kwiecień 1996
LaserJet III, 1IID. bitmapowe, rysunki I11P, lisi, HPSkalowalne kroje pisma, GL/2 obrysy czcionek, grafika LaserJet 4, 4M. (wektorowa) 4MP, 4 Plus, 4L, Obsługa rozdzielczości 600 4ML. 4P, 4M dpi, dwukierunkowa Plus, 5P, 5MP, komunikacja pomiędzy 5L, 5L-FS, drukarką a komputerem, 5Lxtra, 6L, 6Lxi, dodatkowe czcionki dla 6Lse, 6P, 6MP, Microsoft Windows 6Psi, 6Pse Color LaserJet 5. Rozszerzenia koloru 5M Przyśpieszenie drukowania LaserJet 5, 5se, grafiki i powrotu do LaserJet 6, 6Pse, aplikacji 6Psi, 6MP
wektorowej, które zostały dodane do PCL wiele lat później. Z tego powodu PostScript szybko stał się (i jest do dzisiaj) standardem fabrycznym przy komputerowym wspomaganiu prac wydawniczych i przetwarzaniu grafiki. Adobe licencjonowało język PostScript wielu producentom drukarek, łącznie z tymi, którzy tworzyli komputerowe systemy składu w wysokiej rozdzielczości, wykorzystywane do produkcji danych wyjściowych do procesu drukowania offsetowego stosowanego przy druku gazet, magazynów oraz książek. PostScript nie korzysta z sekwencji kodów sterujących jak PCL; bardziej przypomina standardowy język programowania. PostScript jest nazywany obiektowym językiem programowania, ponieważ do drukarki nie są wysyłane rysunki bitmapowe, lecz geometryczne obiekty. Oznacza to, że w celu utworzenia znaku określoną czcionką sterownik drukarki przesyła obrys danej czcionki i jego wielkość. Obrys czcionki jest szablonem, według którego drukarka tworzy znaki każdej wielkości. Drukarka tworzy odpowiednie znaki korzystając raczej z obrysów czcionek niż z banku bitmapowych rysunków każdego znaku każdej wielkości. Ten typ tworzenia obrazu jest nazywany grafiką wektorową, której przeciwieństwem jest grafika bitmapowa, polegająca na przesyłaniu do drukarki w pełni uformowanych wzorów punktów. PCL jest w stanie drukować techniką wektorową dopiero od wersji 5, wprowadzonej w 1990 roku.
Obrysy upraszczają cały proces drukowania czcionek, ponieważ umożliwiają zaopatrzenie drukarek w większą ilość wewnętrznych krojów pisma, które mogą być drukowane w dowolnych rozmiarach. Natomiast czcionki bitmapowe najczęściej muszą zostać przetransferowane z komputera do drukarki. W przypadku druku grafiki często można zobaczyć różnicę między wydrukiem wektorowym a bitmapowym. Ponieważ obraz wektorowy jest tworzony przez drukarkę, jego jakość zależy od możliwości drukarki. Rysunek wydrukowany na drukarce 600 dpi wygląda znacznie lepiej niż taki sam rysunek drukowany na drukarce 300 dpi. W przypadku rysunku bitmapowego, wydruki obu drukarek nie będą się od siebie różnić. Modyfikacje języka PostScript były ściśle związane ze rozszerzającymi się możliwościami drukarek laserowych Apple, dla których język ten został pierwotnie utworzony. Te drobne modyfikacje stały się na tyle liczne, że Adobe wydał w 1992 r. nową podstawową wersję języka, nazwaną PostScript Level 2. Rozwój jednak wciąż trwał i w 1997 roku zaprezentowano PostScript 3. Uaktualnienia zwiększyły szybkość i poprawiły jakość druku drukarek PostScript, przystosowując język do rozszerzonych możliwości urządzeń, takich jak dodatkowa pamięć czy zasobniki papieru; nie stanowiły jednak takiego przełomu jak uaktualnienia języka PCL PostScript po prostu od początku posiadał najbardziej efektywne możliwości, a kolejne jego wersje były kompatybilne wstecz.
Obsługa PDL Gdy oceniasz drukarki, decyzja, którego języka opisu strony chcesz używać, powinna wynikać przede wszystkim z powiązań z innymi częściami komputera, z dokumentacji oraz samych drukarek. Obecnie możliwości języków PCL i PostScript są porównywalne (choć czasem występują różnice) i zależnie od indywidualnych potrzeb, każdy z nich może osiągnąć zadowalającą jakość wydruku. Jeśli jednak zamierzasz tworzyć dokumenty, które będą służyły do innych zastosowań, takich jak na przykład kopie poprzedzające wydruk na dużą skalę, bardzo zalecane jest korzystanie z języka PostScript, ponieważ jest on nadal dominującym standardem w świecie profesjonalnej grafiki, wydruków oraz publikacji. Możesz również przesyłać dokumenty poprzez Internet.jak również wszędzie tam gdzie wykorzystywany jest język PostScript. Przez długi czas pliki wyjściowe języka Postscript (najczęściej z rozszerzeniem .PS) były najbardziej dogodnym, niezależnym od sprzętu formatem przesyłania dokumentów zawierających dane graficzne. Specyfikacja protokołu sieciowego TCP/IPjest bezpłatnie rozprowadzana w Internecie w formie pliku ASCII. Jednak wiele dokumentów posiada diagramy i inne elementy graficzne, których nie można umieścić w pliku ASCII i w związku z tym są rozprowadzane w standardzie PostScript. Każdy użytkownik drukarki wykorzystującej język PostScript, niezależnie od posiadanego komputera, może po prostu skopiować plik do drukarki i uzyskać wydruk dokumentu, zawierającego całą grafikę i czcionki znalezione w oryginale. Pomimo iż coraz rzadziej zapisuje się dokumenty w czystym formacie PostScript (jest to związane z powstaniem popularnych, niezależnych od rodzaju komputera standardów przechowywania dokumentów, takich jak na przykład Adobe Acrobat), jest to wystarczający powód posiadania drukarki zgodnej ze standardem PostScript.
Zarówno PCL, jak i PostScript są wykorzystywane w wielu różnych drukarkach. Drukarki przeznaczone dla komputerów Macintosh skupiają się wokół języka PostScript, który jest standardowym elementem wszystkich drukarek laserowych firmy Apple. Oczywiście, zanim Hewlett Packard wprowadził standard PCL, wszystkie te drukarki standardowo korzystały z PDL. Większość modeli drukarek HPjest również dostępna w wersji obsługującej język PostScript. Poza tym większość drukarek HP można rozbudować o dodatkowe moduły uzupełniające drukarkę o obsługę PostScript. Wielu innych producentów również korzysta w swych urządzeniach z PCL lub Post-Script (a niekiedy z obu języków). Drukarki te posiadają licencję HP lub Adobe, bądź też emulują jeden z języków. To, czy drukarka posiada oryginalną, licencjonowaną wersję języka PDL, może być bardzo ważne. Znanych jest wiele przypadków, gdy nie autoryzowana lub nieprawidłowa emulacja była reklamowana jako doskonale działająca i spełniająca swoje zadanie. W połowie lat 80. określenie „LaserJet Plus Emulation" miało równie niewielkie znaczenie, jak sformułowanie „Hayes compatible" w odniesieniu do modemów. Obecnie większość wykorzystywanych przez producentów emulacji PCL (najczęściej wersji 5) jest dość dobrych, ale PostScript jest bardzo rozbudowanym i trudnym do emulacji językiem. Nadal można odnaleźć różnice pomiędzy oryginalną a emulowaną wersją PDL, co powoduje powstawanie dostrzegalnych różnic w wydrukach. Ponownie, kwestia emulacji PDL zależy w dużym stopniu od sposobu wymiany dokumentów z innymi użytkownikami. Jeśli posiadasz drukarkę z emulowaną wersją języka PostScript i sterownik drukarki, który dobrze wykorzystuje wbudowaną emulację, nie ma większego znaczenia, że emulacja nie spełnia dokładnie wszystkich specyfikacji Adobe. Jednak jeśli wysyłasz swoje dane wyjściowe w języku PostScript do specjalistycznego zakładu poligraficznego, w celu wydrukowania ich na komputerowych systemach składu, różnice widoczne pomiędzy emulowaną a oryginalną wersją języka PostScript mogą mieć dla ciebie ogromne znaczenie. Jeśli tylko jest to możliwe, najlepiej kupić drukarkę posiadającą oryginalny język PDL licencjonowany przez jego twórcę. Drukarka powinna ponadto posiadać co najmniej PCL 5 i/lub PostScript Level 2. Wiele drukarek obsługuje zarówno PCL, jak i PostScript, dzięki czemu możesz sprawdzić, w jaki sposób drukarka łączy zadania, w których musi korzystać z różnych języków PCL. Najlepsze drukarki potrafią wykryć, w jakim języku opisu strony jest przesyłane zadanie i automatycznie przełączają się na odpowiedni język. Jeśli drukarka nie posiada tej możliwości, być może musisz wysyłać polecenie określające język, w którym jest opisane dane zadanie, i powodujące przełączenie się drukarki w określony tryb. Dla pojedynczych użytkowników i autonomicznych komputerów nie stanowi to problemu, sytuacja jednak zmienia się, gdy drukarka jest drukarką sieciową- w takich przypadkach, jeśli ktoś stale nie obserwuje postępów drukowania, często nie wie, w jakiej kolejności drukowane są poszczególne zadania - ponadto ręczne zmiany trybu drukarki mogą być trudne do zsynchronizowania w czasie.
Kody sterujące Właściwie wszystkie drukarki laserowe i większość atramentowych obsługuje co najmniej jeden język opisu strony. Jednak niektóre (szczególnie drukarki igłowe) nie posiadają wbudowanej obsługi PDL i w związku z tym sterownik drukarki komunikuje się z drukarką wykorzystując sekwencje kodów sterujących. Podobnie jak opisywane wcześniej polecenia PCL, kody sterujące są sekwencjami kontrolnymi uaktywniającymi funkcje określonej drukarki. Kody sterujące (Escape
codes) są tak nazywane, ponieważ pierwszym znakiem każdego z kodów jest wartość ASCII odpowiadająca klawiszowi Escape. Takie rozwiązanie umożliwia poinformowanie drukarki, że następny znak będzie poleceniem, a nie kolejnym znakiem aktualnie drukowanego dokumentu. W zależności od cech danej drukarki igłowej, istnieje możliwość wyboru różnych rozdzielczości, czcionek czy też szybkości. Sterownik drukarki zainstalowany w komputerze wysyła odpowiednie kody sterujące bazujące na wybranych przez ciebie ustawieniach sterownika i programu, na którym pracujesz. Kody sterujące nie są ujednolicone tak, jak języki opisu strony - różne drukarki wykorzystują różne kody do wykonania tej samej operacji. Na przykład, Epson przez dłuższy czas dominował na rynku drukarek igłowych i stosowane przez niego kody sterujące zostały wykorzystane przez kilku innych producentów, jednak było ich zbyt niewielu, by można było mówić o tych kodach jako obowiązującym standardzie fabrycznym.
Pamięć drukarek W drukarkach, tak samo jak w komputerach, montowane są kości pamięci; drukarki laserowe i atramentowe często posiadają również procesory, dzięki czemu można je nazwać bardzo wyspecjalizowanym komputerem. Drukarki mogą wykorzystywać wewnętrzną pamięć do wielu zastosowań -jako bufor przechowujący dane zadań drukowania podczas ich wprowadzania do drukarki; jako miejsce chwilowego przechowywania danych podczas przetwarzania rysunków, czcionek, oraz poleceń; jako stałe lub chwilowe miejsce przechowywania obrysów czcionek i innych danych Rozmiar pamięci w drukarkach atramentowych i laserowych jest bardzo istotnym wyznacznikiem ich możliwości. Drukarki te, zanim rozpoczną wydruk, muszą utworzyć bitmapowy obraz całej strony, łącznie z wykorzystywaną w niej grafiką i czcionkami -wszystko to zajmuje pamięć. Każdy obrys czcionki i grafika wektorowa, zanim będą mogły zostać wydrukowane, muszą zostać przetworzone. Im więcej na stronie czcionek i grafiki, tym większej ilości pamięci wymaga jej wydruk. Dodatkowo, pamięć potrzebna jest również do przechowywania interpretera PDL oraz wbudowanych czcionek drukarki. Może się okazać, iż drukarka posiada wystarczającą pamięć do drukowania średniej wielkości strony z tekstem i grafiką, lecz nie starcza już pamięci do wydrukowania pełnej strony grafiki lub strony, na której występuje wiele różnych czcionek. Rezultatem braku pamięci może być podzielenie wydruku na dwie strony, niewydrukowanie części czcionek lub całkowity brak wydruku. Na szczęście, w większości drukarek można rozbudować pamięć, rozszerzając ich możliwości. Rozszerzenia pamięci dla drukarek mogą mieć wiele form. Niektóre drukarki wykorzystują standardowe kości pamięci, takie jak SIMM-y lub DIMM-y. W innych zastosowano firmowe rozwiązania, zmuszające użytkownika do zakupu pamięci prosto od producenta drukarki (oczywiście za zawyżoną cenę). Podobnie jak w komputerze, zainstalowana w drukarce dodatkowa pamięć prawie nigdy nie leży odłogiem. Drukarka może wykorzystywać dodatkową pamięć nie tylko do przetwarzania grafiki czy też przechowywania większej liczby czcionek, ale i do przetwarzania danych kolejnej strony, jeszcze podczas drukowania poprzedniej, oraz jako bufor przechowujący większe ilości danych otrzymanych z komputera. Drukarka z rozszerzoną pamięcią potrafi jednorazowo odebrać więcej danych z komputera. W zależności od używanego systemu operacyjnego i ustawień sterownika drukarki, może
to widocznie zwiększyć wydajność drukowania. Gdy drukujesz dokument spod DOS-owej aplikacji, nie możesz (zazwyczaj) kontynuować pracy, zanim wszystkie dane zostaną przekazane drukarce. Wielozadaniowe systemy operacyjne, takie jak Windows 9x najczęściej potrafią drukować w tle, dzięki czemu możesz kontynuować pracę. Jednak nawet uruchomiony w tle, proces drukowania może znacząco obniżyć wydajność systemu. Im więcej drukarka posiada pamięci, tym szybciej zostaną do niej przesłane dane drukowanego dokumentu i tym szybciej system powróci do standardowej wydajności. Informacja o ilości pamięci zainstalowanej w drukarce, którą zamierzasz kupić, nie wystarcza do podjęcia rozważnej decyzji o zakupie. Musisz również wiedzieć, ile pamięci zajmująjęzyki opisu strony i rezydentne czcionki oraz ile pamięci pozostaje dla danych zadań drukowania. Różne języki PDL, wielkości strony oraz rozdzielczości wymagają różnej wielkości pamięci. Na przykład, 12 MB jest w zupełności wystarczającą pamięcią dla drukarki wykorzystującej PCL i drukującej w rozdzielczości 300 dpi strony o rozmiarze 216x279 mm. Jednak już dla drukarki PostScript, drukującej w rozdzielczości 600 dpi i wielkości 279x432 mm, 12 MB ledwie wystarcza. Kwestia rozszerzeń pamięci dotyczy tylko drukarek laserowych i atramentowych drukujących całe strony. Większość drukarek igłowych pobiera dane z komputera jako ciąg znaków ASCII, w związku z czym nie muszą przetwarzać od razu całej strony i w zupełności wystarcza im dużo mniejszy bufor, najczęściej rzędu kilku kilobajtów. Również grafika zostaje przetworzona przez komputer i przesłana do drukarki jako ciąg znaków. W związku z tym, bardzo rzadko się zdarza, by można było rozszerzyć pamięć drukarki igłowej.
Czcionki Czcionki są jedną z najczęściej wykorzystywanych możliwości drukarki. Posiadanie i sprawne wykorzystywanie czcionek dobrej jakości może stanowić o różnicy pomiędzy amatorskim a profesjonalnie wyglądającym dokumentem. Termin czcionka oznacza określony krój pisma w określonym stylu i rozmiarze. Krój pisma składa się ze zbioru alfanumerycznych znaków, którymi są litery, numery oraz symbole, tworzące razem atrakcyjną i czytelną prezentację tekstu. Istnieją tysiące krojów pisma i bez przerwy powstają nowe. Niektóre z podstawowych zostały dołączone do systemu operacyjnego Windows i nazwane Times New Roman, Arial oraz Courier (patrz rysunek 19.3). Styl pisma ]est odmianą kroju pisma, na przykład jego pogrubieniem lub pochyleniem. Krój pisma równie dobrze może posiadać tylko jeden styl lub ich dziesiątki.
Rysunek 19.3.Przykłady krojów pisma Times New Roman, Arial or Courie
Times NewRoman
Arial
Courier
Kroje pisma często dzieli się pod względem ich standardowych cech. Times New Roman jest nazywany na przykład krojem szeryfowym, ponieważ wszystkie jego litery posiadają niewielkie ozdobniki, nazywane szeryfami (ang. serif). Krój pisma taki jak Arial, nie posiadający tych ozdobników, nazywany jest krojem pisma bezszeryfowym (sans serif). Courierjest nazywany krojem nieproporcjonalnym, ponieważ wszystkie znajdujące się w nim znaki zajmują taką samą szerokość. Arial i Times New Roman są, w przeciwieństwie do Couriera, proporcjonalnymi krojami pisma, ponieważ obszar zajmowany przez dany znak jest dostosowany do jego szerokości. W proporcjonalnym kroju pisma litera „i" zabiera mniej miejsca na stronie niż litera „w". Technicznie rzecz ujmując, termin czcionka odnosi się do kroju pisma o określonym rozmiarze, najczęściej mierzonym w punktach (72 punkty równają się jednemu calowi). 10-i 12-punktowy Courier powinien być postrzegany jako dwie osobne czcionki. Jest to spowodowane tym, iż w pierwszych drukarkach komputerowych, jak również podczas tradycyjnego drukowania, każdy rozmiar danego kroju pisma był osobną jednostką. W dawnych prasach drukarskich, każdy znak na stronie był drukowany osobną, drewnianą lub metalową czcionką, przyciskaną do papieru. By drukować znaki o różnym rozmiarze, trzeba było wykorzystywać czcionki o różnych wielkościach. Drukarki wykorzystujące bitmapy do drukowania znaków, były po prostu rozwinięciem tego procesu. W tej technice drukowania, każdy znak lub krój pisma istnieje jako wzorzec punktów, gotowy do wysłania do drukarki. W gruncie rzeczy, każdy znak istniał jako osobny, niewielki rysunek. By drukować ten sam krój pisma o innym rozmiarze, potrzebne są osobne rysunki o innym rozmiarze. Rysunki te nazywane są czcionkami bitmapowymi. Obecnie, drukarki prawie zawsze wykorzystują czcionki skalowalne. W tej metodzie, do drukowania kroju pisma dowolnej wielkości, wymagany jest tylko jeden obrys każdego znaku. Drukarka przechowuje w pamięci obrysy i na ich podstawie tworzy bitmapy znaków o wymaganym rozmiarze. Bitmapy te w trakcie drukowania są przechowywane w tymczasowe podręcznej pamięci czcionek. Po ukończeniu wydruku, zostają z niej usunięte. Drukarka może również obracać skalowalne czcionki o dowolny kąt, podczas gdy czcionki bitmapowe mogą się obracać tylko o kąt wynoszący 90 stopni. Obrysy czcionek zabierają w drukarce mniej pamięci i umożliwiają zastosowanie o wiele większej ilości wariacji danej czcionki. Dodatkowo, ponieważ bitmapy z obrysów czcionek są tworzone przez drukarkę, skalowalne czcionki mogą wyglądać lepiej w wyższych rozdzielczościach, podczas gdy czcionki bitmapowe zawsze wyglądają tak samo. Tworzenie bitmap z obrysów skalowalnych czcionek wymaga posiadania przez drukarkę większej mocy obliczeniowej, ale jest to niewielka cena w porównaniu do zysków. Pomimo iż czcionki bitmapowe coraz rzadziej są wykorzystywane przy druku zwykłych dokumentów biurowych, niektórzy profesjonaliści preferują je przy druku w wysokich rozdzielczościach, ponieważ czcionki te mogą zostać dostosowane do indywidualnych potrzeb. Czcionki bitmapowe są również wykorzystywane do wyświetlania znaków na ekranie przez niektóre graficzne systemy operacyjne, na przykład Windows 3.1, ponieważ czcionki skalowalne nie wyglądają dobrze w niskich rozdzielczościach typowego monitora. Powstała już jednak technologia nazywana wygładzaniem (anti-aliasing), łagodząca za pomocą pikseli w różnych odcieniach szarości przejścia pomiędzy bielą a czernią. Technologia ta ma za zadanie usunąć czcionki bitmapowe z ekranów monitorów.
W rezultacie rozwoju technologicznego, terminy czcionka i krój pisma przestały być jednoznaczne. Dawniej, gdy kupowałeś krój pisma, otrzymywałeś te same zestawy liter w różnych rozmiarach. Każdy rozmiar był nazywany czcionką. Obecnie, gdy kupujesz krój pisma, otrzymujesz tylko jeden obrys, który może zostać przeskalowany przez drukarkę do potrzebnego rozmiaru. Gdy czcionki bitmapowe były jeszcze popularne, istniało wiele sposobów na przesłanie ich do drukarki. Ponieważ czcionki bitmapowe zabierają dużo więcej pamięci niż same obrysy, niepraktyczne jest stałe przechowywanie dużej ilości czcionek w pamięci drukarki. Możesz kupić bitmapowe czcionki jako oprogramowanie (nazywane miękkimi czcionkami), a następnie dzięki specjalnemu programowi narzędziowemu w razie potrzeby przesyłać je do drukarki. Możesz również kupić czcionki w specjalnych kasetach, które można umieszczać w specjalnym gnieździe drukarki. Niewiele (jeśli jakakolwiek) z obecnie produkowanych drukarek posiada wejście na kasety z dodatkowymi czcionkami. Również ręczne umieszczanie miękkich czcionek w drukarce, aczkolwiek nadal technicznie możliwe, nie jest warte poświęconego na nie czasu. Obecnie, pomimo iż drukarki są najczęściej wyposażane w zestaw obrysów czcionek stale przechowywanych w pamięci, jest to podyktowane bardziej standardem i względami wydajnościowymi niż rzeczywistą potrzebą. Zainstalowany w komputerze sterownik drukarki potrafi w razie potrzeby automatycznie przesłać do drukarki odpowiednie skalowalne czcionki. Wykorzystywane zarówno w komputerach Macintosh, jak i systemie operacyjnym Windows technologie takie jak TrueType, pozwalają wykorzystywać setki krojów pisma, w niemal każdej wielkości. Pomimo iż wszystkie funkcje obrysów czcionek są oparte na tych samych podstawowych założeniach, istnieją różne typy skalowalnych czcionek. Oryginalną technologią skalo-walnych czcionek był PostScript i w okresie gdy standard ten nie miał konkurenta, Adobe stworzył dla niego ogromną bibliotekę krojów pisma. Większość drukarek PostScript jest wyposażanych w umieszczony na stałe w pamięci zestaw 39 podstawowych czcionek, lecz możesz wybierać spośród tysięcy innych, przeglądając internetowy serwis firmy Adobe. Po zakupie umieszczonych tam obrysów czcionek, musisz zainstalować je na komputerze, korzystając z odpowiedzialnego za przesyłanie do drukarki odpowiednich obrysów programu Adobe Type Manager. Inną znaczącą technologią czcionek jest TrueType. Zaprojektowana około sześć lat po technologii PostScript, była rezultatem wspólnego projektu Microsoftu oraz Apple. Obie firmy chciały zintegrować w swych systemach operacyjnych analogiczną do Postscript technologię skalowalnych czcionek, ale żadna z nich nie chciała przekazać kontroli nad ważną częścią systemu operacyjnego trzeciej firmie, w tym wypadku Adobe. PostScipt i TrueType działają właściwie tak samo, choć istnieją pewne ważne różnice pomiędzy techniką tworzenia obrysów czcionek. Podstawową zaletą TrueType jest jego zintegrowanie w systemach operacyjnych Windows i Macintosha, dzięki czemu do ich obsługi nie jest wymagane żadne dodatkowe oprogramowanie, jak na przykład Adobe Type Manager. Większość producentów czcionek tworzy je zarówno w formacie Postscript Typ l, jak TrueType i naprawdę trudno zauważyć jakiekolwiek różnice pomiędzy tymi samymi czcionkami zapisanymi w różnych formatach.
Podobnie jak drukarki PostScript, wiele drukarek posiada wewnętrzny zbiór czcionek TrueType, udostępnianych przez system operacyjny aplikacjom. Gdy kupujesz drukarkę, liczbę standardowo zamieszczanych w drukarce czcionek powinieneś traktować jako wyposażenie dodatkowe. Wszystkie kroje pisma umieszczone w drukarce mogą być równie dobrze tworzone przez ich programowy odpowiednik, który jednak czasami musisz oddzielnie dokupić. Istnieją tysiące dostępnych po bardzo różnych cenach czcionek TrueType i Postscript Type l. Wiele z nich można za darmo ściągnąć z Internetu, ale równie wiele (oferowanych na przykład przez Adobe) można wyłącznie nabyć, i to za stosunkowo wysoką cenę. Zwróć jednak uwagę, że istnieją bardzo duże różnice w jakości tych czcionek i choć nie zawsze droższe znaczy lepsze, to jednak znacznie więcej jest tanich niż drogich czcionek o złej jakości.
Sterowniki drukarki Tak jak wiele innych urządzeń peryferyjnych, drukarki w dużym stopniu są zależne od zainstalowanych w komputerze sterowników. Sterownik jest programowym interfejsem, za pomocą którego aplikacja lub system operacyjny komunikują się z drukarką. Podstawową funkcją sterownika jest poinformowanie komputera o cechach i możliwościach drukarki, na przykład o typie zainstalowanego w drukarce języka opisu strony, typie papieru oraz zainstalowanych czcionkach. Gdy drukujesz dokument, wszystkie ustawienia drukowania wybierane są poprzez sterownik drukarki, choć może się on wydawać częścią aplikacji. Sterowniki drukarki są w DOS-ie częścią poszczególnych aplikacji. Większość ważniejszych pakietów oprogramowania posiada tylko ogólne sterowniki i nie oferuje sterowników dla określonych typów drukarek. W takim przypadku, najlepiej jest wybrać sterownik obsługujący taką samą jak zainstalowana w drukarce, wersję języka opisu strony. Na przykład, sterownik drukarki LaserJet III wykorzystuje PCL 5, który potrafi obsłużyć wszystkie modele LaserJet III i 4, nawet jeśli nie potrafi wykorzystać ich wszystkich możliwości. Jest bardzo prawdopodobne, że DOS-owy program nie posiadający sterownika dla twojej drukarki, nie będzie mógł wykorzystać żadnej z jej dodatkowych funkcji i w związku z tym nie uzyskasz poprawy jakości wydruku, nawet jeśli ze względu na możliwości drukarki poprawa taka była możliwa. We wszystkich wersjach Windows sterowniki drukarki nie są oddzielnymi aplikacjami, lecz stanowią część systemu. Już sam system zawiera bogaty zbiór sterowników drukarek, a w osobne sterowniki prawie zawsze można się zaopatrzyć na stronie producenta. Sterowniki dołączone do Windows są najczęściej napisane przez producenta drukarki, nie przez Microsoft. Dzięki temu unika się problemów związanych z istnieniem dla danej drukarki sterowników napisanych przez dwóch różnych producentów.
Opisy drukarki w Postscript Podczas gdy drukarki korzystające z PCL lub sekwencji kontrolnych, posiadają całkowicie niezależne i nie związane z systemem Windows sterowniki, drukarki PostScript wykorzystują tylko jeden prosty, ogólny sterownik obsługujący PDL. We wszystkich wersjach Windows sterownik ten nazywa się PSCR.IPT.DRV. W celu obsłużenia
wszystkich możliwości danych drukarek, sterownik ten wykorzystuje dodatkowe moduły nazywane PPD (PostScript Printer Description). PPD udostępnia informacje o możliwościach danej drukarki oraz jej cechach fizycznych, takich jak podajnik papieru czy też obsługiwane rozmiary wydruków. Na sterowniku PostScript spoczywa zadanie obsługi języka. By obsługiwać pod systemem Windows wiele drukarek PostScript, wystarczy po prostu dodać do istniejącej struktury sterowników nowe moduły PPD. Oprócz dołączonego do systemu Windows modułu, istnieje również sterownik PostScript nazwany AdobePS i rozprowadzany za darmo przez firmę Adobe, właściciela języka PostScript. Jego zainstalowanie jest zalecane, jeśli posiadasz drukarkę korzystającą z prawdziwego języka PostScript, ponieważ sterownik ten dokładniej obsługuje język i jego możliwości. Pomimo iż sterownik PostScript jest rozprowadzany zarówno przez Microsofl,jak i Adobe, najczęściej otrzymujesz go od producenta drukarki.
Jak działają drukarki Każdy z trzech głównych typów drukarek korzysta nie tylko z innego sposobu przenoszenia informacji na papier, ale i z innego nośnika koloru: tonera, atramentu lub taśmy. W tym rozdziale zostały opisane sposoby tworzenia wydruków przez poszczególne typy drukarek.
Drukarki laserowe Proces drukowania dokumentu na drukarce laserowej dzieli się na następujące etapy: • Komunikacja • Przetwarzanie • Formatowanie • Kastrowanie • Skanowanie laserem • Nakładanie tonera • Zgrzewanie tonera Procedury te w zależności od drukarki mogą być realizowane na wiele różnych sposobów, jednak każda drukarka laserowa musi je wykonać. Tańsze drukarki mogą na przykład wymagać od komputera, by przeprowadził niektóre z zadań przetwarzania wydruku, podczas gdy inne posiadają układy przetwarzające informacje wewnątrz drukarki.
Komunikacja Pierwszym etapem drukowania jest przesłanie drukarce danych wydruku. Komputery zazwyczaj komunikują się z drukarką poprzez port równoległy, choć istnieje również wiele drukarek wykorzystujących port szeregowy. Niektóre urządzenia mogą korzystać z obu typów portów i w tym samym czasie być podłączone do dwóch komputerów. Drukarki sieciowe często całkowicie pomijają oba porty i korzystają z wewnętrznego sterownika, łącząc się dzięki niemu bezpośrednio z siecią. Komunikacja pomiędzy drukarką a komputerem polega oczywiście przede wszystkim na przesyłaniu danych wydruku z komputera do drukarki. Dane przesyłane są jednak również w przeciwnym kierunku. Drukarka wysyła do komputera sygnały kontrolne, informujące komputer, kiedy ma przestać wysyłać dane i kiedy ponowić wysyłanie. Wewnętrzny bufor pamięci typowej drukarki jest mniejszy niż obszar zajmowany przez średnio skomplikowane zadanie drukowania i w związku z tym, może w danej chwili pomieścić tylko określoną ilość danych. W miarę drukowania kolejnych stron drukarka opróżnia bufor i wysyła sygnały informujące komputer o możliwości wznowienia transmisji danych. Proces ten jest najczęściej nazywany uzgadnianiem (handshaking). Rodzaj wykorzystywanych przy transmisji danych protokołów uzgadniania zależy od portu, do którego podłączona jest drukarka. Rozmiar danych, które może pomieścić drukarka, jest bardzo zróżnicowany. Wcześniej w rozdziale czytałeś już, w jaki sposób można powiększyć bufor dzięki zainstalowaniu dodatkowej pamięci. Niektóre drukarki posiadają nawet wewnętrzny twardy dysk, dzięki czemu mogą przechowywać duże ilości czcionek i danych drukowania. Proces tymczasowego przechowywania wielu zadań drukowania oczekujących na swoją kolej jest nazywany buforowaniem. Wiele drukarek obsługuje jeszcze bardziej zaawansowaną komunikację z komputerem, dzięki czemu użytkownik wykorzystując programową aplikację może zapytać drukarkę o jej aktualny status, a nawet ustawić parametry pracy drukarki, uprzednio konfigurowalne tylko za pomocą panelu kontrolnego znajdującego się na drukarce. Ten rodzaj komunikacji jest możliwy tylko, jeśli komputer posiada dwukierunkowy port ECP lub EPP.
Przetwarzanie Drukarka po otrzymaniu danych z komputera rozpoczyna proces ich interpretacji. Większość drukarek laserowych to właściwie komputery, zawierające procesor i pamięć. Ta część drukarki jest często nazywana kontrolerem lub interpreterem i zawiera firmowe rozwiązania obsługujące język opisu strony wykorzystywany przez drukarkę. Pierwszym etapem procesu interpretacji jest oddzielenie w przychodzących danych poleceń od treści dokumentu. Procesor drukarki odczytuje kod i ocenia wyszukane polecenia, zachowując te, które stanowią część procesu formatowania, i wykonując inne, wymagające fizycznych zmian w konfiguracji drukarki, takich jak wybór podajnika papieru czy też trybu drukowania (jedno- lub dwustronnego). Niektóre drukarki przetwarzają również polecenia formatujące dokument, konwertując je na specjalny kod formatowania.
Formatowanie Faza formatowania w procesie interpretacji danych wymaga interpretacji poleceń określających wygląd gotowego wydruku. I znów, proces ten w dużym stopniu zależy od możliwości drukarki. W przypadku tanich drukarek, większością procesu formatowania obciążany jest komputer, który musi wysyłać bardzo szczegółowe instrukcje określające położenie każdego znaku na stronie. Lepsze drukarki same przeprowadzają formatowanie, co wymaga od nich zaskakująco wiele pracy. Aplikacja, której używasz, może pokazywać dokument w bardzo zbliżonym do wyglądu wydruku formacie WYSIWYG, jednak nie ma to wpływu na dane dokumentu wysyłane przez kontroler drukarki. Drukarka zazwyczaj sama jeszcze raz układa kształt dokumentu, interpretując serię poleceń określających parametry, takie jak rozmiar papieru, położenie marginesów czy też ostępy między liniami. Następnie kontroler umieszcza w granicach tych wytycznych grafikę i tekst, często wykonując wiele skomplikowanych procedur, na przykład justowanie tekstu. Proces formatowania obejmuje również przetwarzanie i tworzenie bitmap na podstawie obrysów czcionek i grafiki wektorowej. Na przykład, w odpowiedzi na żądanie wydrukowania określonej czcionki o określonej wielkości, kontroler odczytuje odpowiedni obrys czcionki i na jego podstawie generuje zbiór bitmap w prawidłowym rozmiarze. Bitmapy te są przechowywane w tymczasowej pamięci podręcznej czcionek, z której kontroler podczas tworzenia strony może je w razie potrzeby odczytać.
Rastrowanie Rezultatem procesu formatowania jest zbiór szczegółowych poleceń dokładnie definiujących położenie każdego znaku i grafiki na każdej stronie dokumentu. W ostatnim etapie procesu interpretacji danych, kontroler przetwarza polecenia formatujące tworząc wzór malutkich punktów, które zostaną naniesione na stronę wydruku. Proces ten jest nazywany rastrowaniem. Tablica punktów podczas oczekiwana na wydruk jest zazwyczaj przechowywana w buforze strony. Efektywność procesu buforowania zależy od ilości pamięci w drukarce oraz rozdzielczości wydruku. W drukarce czarno-białej, każdy punkt zajmuje jeden bit, czyli wydruk strony o rozmiarze 216X279 mm w rozdzielczości 300 dpi wymaga około l MB, dokładnie l 051 875 bajtów ([{8 l/2x}\}x3002]/8). W rozdzielczości 600 dpi zapotrzebowanie na pamięć wzrasta do ponad 4 MB - 4 207 500 bajtów. Niektóre drukarki posiadają pamięć wystarczającą do buforowania całej strony, podczas gdy przetwarzana jest już strona następna. Inne mają zbyt mało pamięci, by buforować całą stronę i zamiast tego korzystają z techniki buforów taśmowych (bandbuffers). Drukarki korzystające z buforów taśmowych dzielą stronę na szereg poziomych pasków, nazywanych również taśmami. Kontroler rastruje jeden pasek wydruku i przesyła dane do drukarki, czyszcząc bufor, by mógł przyjąć następną porcję danych. Dzięki temu, drukarka może stopniowo przetworzyć całą stronę, zapisując tablicę punktów tylko na światłoczułym bębnie drukarki. Buforowanie taśmowe wymaga mniejszej ilości pamięci, ale z powodu swojej powolności i podatności na błędy, jest gorsze od buforowania całej strony. W ciągu ostatnich kilku lat znacząco spadły ceny pamięci i w związku z tym technika buforowania taśmowego jest już bardzo rzadko wykorzystywana w drukarkach laserowych. Niektóre sterowniki drukarek umożliwiają wybranie, czy przesyłana do drukarki grafika ma być w formie wektorowej, czy też rastrowej. Ogólnie rzecz biorąc, grafika wektorowa jest szybsza, lecz jeśli podczas korzystania z niej będziesz miał
problemy z umieszczaniem grafiki w określonym miejscu na stronie, najlepszym rozwiązaniem jest skorzystanie z grafiki rastrowej. Większość drukarek posiada opcję przełączania formatu wydruku w zakładce „Grafika" w okienku dialogowym „Właściwości" danej drukarki. Niektóre sterowniki umieszczają jednak tę opcję w innym miejscu lub w ogóle jej nie posiadają.
Skanowanie laserem Po tym, jak zrastrowany obraz strony zostanie utworzony przez kontroler i umieszczony w pamięci, dalsze przetwarzanie strony przekazywane jest mechanizmowi drukarki. Terminem mechanizm drukarki określa się zastosowaną w drukarce technologię tworzenia obrazu, łącznie z układami skanowania laserem, fotoreceptorem, pojemnikiem z tonerem, jednostką wywołującą, elektrodami koronowymi, lampą rozładowującą, jednostką zgrzewającą oraz mechanizmem podajnika papieru. Komponenty te często są traktowane jak jedno, zbiorowe urządzenie, ponieważ mechanizm drukarki jest właściwie taki sam jak układy stosowane w kopiarkach. Większość producentów drukarek tworzy swoje produkty na bazie mechanizmów kopiarek pochodzących od innych firm, na przykład Canona. Drukarki komputerowe różnią się od kopiarek przede wszystkim sposobem otrzymywania danych źródłowych - kopiarki pobierają dane z wbudowanego skanera, podczas gdy drukarki otrzymująje z komputera. Gdy zrastrowany obraz dotrze już do mechanizmu drukarki, dalsze procedury przetwarzania i nanoszenia na papier wydruku są właściwie takie same. Układy lasera w drukarce laserowej, często nazywane ROŚ (raster output scanner), wykorzystywane są do tworzenia na światłoczułym bębnie (nazywanym fotoreceptorem) elektrostatycznego wzoru punktów odpowiadających obrazowi przechowywanemu w buforze strony. Układy lasera składają się z lasera, obracającego się zwierciadła oraz soczewki. Laser zawsze znajduje się w tej samej pozycji, więc do tworzenia poziomego wzoru punktów na bębnie wykorzystuje się zakrzywiające promień lasera, obracające się zwierciadło oraz zmieniającą punkt skupienia soczewkę, dzięki czemu punkty na zewnętrznych krawędziach bębna nie są zniekształcane przez światło podczas nanoszenia sąsiednich punktów. Ruch pionowy osiąga się dzięki powolnemu i stałemu obracaniu bębna. Ponieważ bęben jest czuły na każdą formę światła, nie powinien być wystawiany przez dłuższy czas na światło pokojowe ani dzienne. Niektóre drukarki posiadają zabezpieczenia chroniące bęben przed wystawieniem na światło podczas otwierania pokrywy drukarki. Jednak nawet jeśli drukarka posiada takie zabezpieczenia, nie powinno się pozostawiać otwartej pokrywy dłużej, niż jest to konieczne do wymiany pojemnika z tonerem lub dokonania napraw. Światłoczuły bęben, w niektórych drukarkach zastępowany pasem, jest pokryty gładkim materiałem przechowującym ładunki elektrostatyczne, które mogą zostać rozładowane, gdy powierzchnia materiału zostanie wystawiona na światło. Wstępne ładowanie całej powierzchni bębna jest przeprowadzane poprzez urządzenie nazywane koronową elektrodą ładującą. Elektroda koronowa to drut pod bardzo wysokim napięciem, powodującym jonizowanie się otaczającego go powietrza. Produktem ubocznym jonizacji powietrza podczas ładowania powierzchni bębna jest ozon, stanowiący źródło charakterystycznego dla drukarek laserowych zapachu. W celu uniknięcia tworzenia ozonu, niektóre mniejsze drukarki zamiast z elektrod koronowych korzystają z naładowanych wałków.
Ozon jest toksycznym i wywołującym korozję gazem, który nie powinien się znajdować w zamkniętych, pozbawionych wentylacji pomieszczeniach. Pomimo iż ozon jest wykorzystywany do odświeżania powietrza i oczyszczania wody, praca przez dłuższy czas w bliskim sąsiedztwie drukarek laserowych, w pozbawionym odpowiedniej wentylacji pomieszczeniu, może wywołać problemy zdrowotne. Bęben jest czuły na każdy typ światła, ale tylko laser może wytworzyć punkty na tyle drobne, by można je było wykorzystywać przy drukowaniu profesjonalnych dokumentów o wysokiej rozdzielczości. Każdy punkt, w którym laser dotknął powierzchni bębna, zostaje rozładowany, dzięki czemu na bębnie powstaje wzór znajdujących się na stronie znaków i obrazów. Znajdujący się w drukarce laser rozładowuje obszary odpowiadające czarnym częściom strony, czyli znakom i obrazom stanowiącym dokument. Taki sposób nanoszenia obrazu jest nazywany drukowaniem WB (write-blacK). W kopiarkach zastosowano dokładnie odwrotny proces, nazywany drukowaniem WW (write-white) i polegający na rozładowywaniu obszarów odpowiadających tłu strony.
Nakładanie tonera Podczas obracania się światłoczułego bębna, część jego powierzchni, która została wcześniej rozładowana przez laser, przesuwa się wzdłuż jednostki wywołującej (patrz rysunek 19.4). Wywoływacz jest wałkiem pokrytym drobnymi cząstkami magnetycznymi, działającymi jako „pędzel" rozprowadzający toner. Toner jest niezwykle drobnym, czarnym, plastycznym pudrem, tworzącym obraz na drukowanej stronie. Rolka wywołująca jest umieszczona tuż obok pojemnika z tonerem i podczas obracania się zostaje pokryta równą warstwą przyciągniętych cząsteczek tonera. Ten sam wałek wywołujący położony jest również w bezpośrednim pobliżu światłoczułego bębna i gdy powierzchnia bębna przesuwa się wzdłuż wałka, cząsteczki tonera zostają przyciągnięte do obszarów naładowanych przez laser, dzięki czemu na bębnie zostaje uformowany obraz strony, korzystający z cząsteczek tonera jako nośnika koloru. Bęben nadal powoli się obraca i przechodzi w pobliżu źródła papieru. Drukarka posiada osobny mechanizm oddzielający jedną kartkę z podajnika i przemieszczający ją poprzez drukarkę, dzięki czemu kartka przechodzi tuż pod spodnią częścią bębna (nie dotykając go) z tą samą prędkością, z jaką obraca się bęben. Pod kartką znajduje się inna elektroda koronowa (nazywana koronową elektrodą przenoszącą) ładująca papier, dzięki czemu kartka zaczyna przyciągać znajdujące się na powierzchni bębna cząsteczki tonera, które tworzą na niej dokładny wzór obrazu dokumentu. Po przemieszczeniu tonera na papier, nieustająca rotacja bębna powoduje przejście naładowanych obszarów wzdłuż lampy rozładowującej (najczęściej rzędu diod LED), która „wymazuje" obraz strony, całkowicie rozładowując powierzchnię bębna. W tym momencie bęben kończy pełny cykl ładowania i rozładowywania i jest gotowy do ponownego rozpoczęcia procesu w celu przygotowania następnej strony dokumentu.
Rysunek 19.4.
Jak sam możesz sobie wyobrazić, z powodu bardzo bliskiego sąsiedztwa wszystkich elementów, proces ten ma bardzo niewielki margines błędu. By toner był poprawnie nakładany, bęben musi się obracać bardzo blisko elektrod koronowych, wałka przenoszącego oraz papieru. Z tego powodu wiele rozwiązań mechanizmów drukarek łączy te elementy w jedną zintegrowaną kasetę, którą zastępuje się poprzednią wraz z każdą wymianą tonera. Rozwiązanie te podnosi cenę kaset z tonerem, ale za to umożliwia łatwe wymienianie najczulszych elementów drukarki w regularnych odstępach czasu, dzięki czemu drukarka znacznie dłużej pozostaje sprawna.
Utrwalanie toner Po przeniesieniu tonera z bębna na stronę, strona kontynuuje podróż poprzez drukarkę, przechodząc przez kolejną elektrodę koronową, nazywaną koronową elektrodą rozładowującą. Elektroda ta w dużym stopniu rozładowuje ładunki elektrostatyczne naniesione uprzednio na stronę przez elektrodę ładującą, tuż przed przeniesieniem tonera na papier. Jest to bardzo potrzebne, ponieważ naładowana elektrostatycznie kartka ma tendencję do przylegania do wszystkiego, czego dotknie, na przykład innych kartek lub rolek przenoszących papier w drukarce. Efektem tego etapu drukowania jest kartka z naniesionym zgodnie z planowanym wyglądem wydruku tonerem. Toner nadal jest w formie proszku i po rozładowaniu ładunków elektrostatycznych, na kartce utrzymuje go tylko siła grawitacji. W tym momencie wystarczy niewielki podmuch lub wstrząs, by całkowicie zamazać wydruk. Aby temu zapobiec, kartka przechodzi przez dwa wałki
rozgrzane do 400 stopni Fahrenheita (ok. 200 stopni Celsjusza). W tak wysokiej temperaturze toner topi się i przylega do papieru. To już ostatni etap procesu drukowania, po którym karta opuszcza drukarkę. W związku z właściwościami tonera i procesu utrwalania, znaki na dokumencie wydrukowanym przez drukarkę laserową wyglądają dobrze, są również wyczuwalnie wypukłe.
Drukarki atramentowe Etapy interpretacji danych w procesie drukowania drukarek atramentowych są bardzo podobne do ich odpowiedników w drukarkach laserowych. Ponieważ jednak drukarki atramentowe są zazwyczaj produkowane z założeniem, iż mają trafić do mniej zamożnych nabywców, rzadziej się zdarza, by posiadały stosowane w drukarkach laserowych szybkie procesory czy też duże ilości pamięci. Z tego powodu większość znajdujących się na rynku drukarek atramentowych posiada względnie niewielkie bufory pamięci i w większości procesów związanych z drukowaniem w znacznym stopniu zależy od komputera. W takich drukarkach często nie buforuje się całej strony, lecz wykorzystuje się technikę buforowania taśmowego. Bardziej zaawansowane drukarki atramentowe mogą jednak posiadać porównywalne z drukarkami laserowymi możliwości przetwarzania danych i pojemności pamięci.
Podstawową różnicę pomiędzy drukarkami atramentowymi a laserowymi stanowi sposób przenoszenia obrazu na stronę. Technika drukowania drukarek atramentowych jest o wiele prostsza od techniki zastosowanej w drukarkach laserowych, wymaga mniej drogich części i potrzebuje znacznie mniej miejsca. Zamiast całego skomplikowanego procesu, w którym toner jest przenoszony na bęben, a z bębna na stronę, drukarki atramentowe wykorzystują maleńkie dysze, którymi rozpylają atrament na stronę wydruku, tworząc taki sam jak w drukarkach laserowych wzór punktów. Z tych powodów, technologię drukarek atramentowych łatwiej można przystosować dla wykorzystania w drukarkach przenośnych.
Istnieją dwa podstawowe typy drukarek atramentowych: cieplne oraz piezoelektryczne (omówione nieco dalej). Terminy te opisują technologię wykorzystaną do wypychania atramentu z pojemnika poprzez dysze. Typowa głowica drukarki atramentowej posiada zbiornik z płynnym atramentem oraz maleńkie (o średnicy mikrona) dysze, poprzez które atrament jest nanoszony na stronę. Ilość dysz zależy od rozdzielczości drukarki; najczęściej stosowane konfiguracje posiadają od 21 do 128 dysz dla jednego koloru. Kolorowe drukarki atramentowe korzystają z czterech zbiorników z atramentem w różnych kolorach (błękitnym, purpurowym, żółtym oraz czarnym). Dzięki mieszaniu tych czterech kolorów, drukarka może wytworzyć właściwie dowolny kolor. (Niektóre drukarki używają jednego wymienialnego pojemnika z trzema kolorami: błękitnym, purpurowym oraz żółtym).
Drukowanie cieplne Wykorzystujące tę technikę drukarki atramentowe podgrzewają atrament w zbiorniku do blisko 200 stopni Celsjusza. Powoduje to powstawanie bąbelków pary, która podnosi poziom cieczy w zbiorniku. Pod naciskiem ciśnienia pary, atrament wytryskuje przez
dysze w formie niewielkich kropelek, tworząc punkty na stronie. Próżnia wywołana przez wyrzucony atrament przyciąga do dysz więcej atramentu, dzięki czemu w razie potrzeby można uzyskać ciągły strumień kropelek.
Termiczna technika drukowania była pierwszą wprowadzoną na rynek i nadal jest najbardziej popularna. Z powodu powstających przy podgrzewaniu atramentu bąbelków pary, Canon zaczął nazywać ten typ drukarek „BubbleJets".
Podczas prac we wnętrzu drukarki bardzo ważne jest dokładne przestrzeganie wskazówek producenta. Pomijając oczywiste zagrożenie przez układy pod napięciem, niektóre części drukarki są bardzo wrażliwe i mogą zostać uszkodzone zarówno przez dotyk (na przykład rolka wywołująca i elektrody koronowe), jak i przez długotrwałe wystawianie na światło (na przykład fotoreceptor). Ponadto, stosowana w drukarkach jednostka zgrzewająca jest przeznaczona do pracy w temperaturze nawet ponad 400 stopni Fahrenheita (ok. 200 stopni Celsjusza) i przez pewien czas po wyłączeniu drukarki pozostaje bardzo gorąca. Zawsze, zanim rozpoczniesz konserwację drukarki laserowej, poczekaj co najmniej 15 minut od jej wyłączenia.
Drukarki igłowe Drukarki igłowe są bardziej podatne na zabrudzenie i kurz niż jakikolwiek inny typ drukarek. Jest to spowodowane zarówno fizycznym stykaniem się nasączonej atramentem taśmy z głowicą drukarki, jak i korzystaniem z ciągłej taśmy papieru. Podczas działania drukarki cały czas przesuwa się taśma, dzięki czemu przed głowicą zawsze znajduje się nasączony atramentem odcinek taśmy. Ciągły ruch taśmy oraz wsuwanie i wysuwanie igieł w głowicy powodują powstawanie nasączonych atramentem grudek, które mogą zablokować głowice drukarki i rozmazywać drukowane znaki.
Inny problem stanowi ciągła taśma papieru. Jest ona perforowana na obu brzegach, a wycięte otwory są wykorzystywane przez mechanizm podajnika papieru drukarki. • Zależnie od jakości stosowanego papieru, może się zdarzyć, że któryś z otworów nie zostanie do końca wycięty, co może spowodować zacięcie się papieru w drukarce. Utrzymuj drukarki igłowe w czystości często odkurzając brud i kurz za pomocą sprężonego powietrza oraz regularnie przemywając alkoholem głowice drukarki.
Wybór najlepszego papieru Zarówno drukarki laserowe, jak i atramentowe drukują na specjalnie dla nich przeznaczonych kartkach i w związku z tym są podatne na problemy związane z mechanizmem podawania papieru, takie jak blokowanie się papieru czy taż pobieranie wielu kartek zamiast jednej. Problemy te możesz zminimalizować korzystając tylko z papieru przeznaczonego dla twojego typu drukarki. Jest to szczególnie ważne, jeśli drukujesz na przezroczach czy samoprzylepnych etykietach.
Producenci drukarek często określają zakres gramatur papieru, do którego przystosowana
jest drukarka, i przekraczanie go może pogorszyć jakość wydruków. Co gorsza, jeśli posiadasz drukarkę laserową, korzystanie z etykiet i przezroczy nie przeznaczonych do drukarek laserowych może być katastrofalne w skutkach. Materiały te najczęściej nie są w stanie wytrzymać temperatury procesu zgrzewania i mogą po prostu stopić się w środku drukarki, powodując poważne, a czasem niemożliwe do naprawienia uszkodzenia. Równie ważna jest ostrożność podczas umieszczania kartek w kasecie podajnika papieru. Wilgotne kartki to jeden z głównych powodów blokowania się papieru, pobierania kilku kartek naraz oraz nierównego nakładania tonera. Zawsze przechowuj papier w chłodnym, suchym miejscu i nie otwieraj paczki, jeśli nie będziesz z niej od razu korzystał. Gdy umieszczasz w podajniku ryzę kartek, dobrze jest je wcześniej przekartkować. Dzięki temu podajnik papieru łatwiej oddzieli od siebie poszczególne kartki.
Najczęstsze problemy z drukowaniem Dzięki regularnej konserwacji sprzętu możesz uniknąć wielu problemów z drukowaniem, lecz nadal może się zdarzyć, że jakość wydruku będzie daleko odbiegała od twoich oczekiwań lub też drukarka po prostu nie będzie działała. Często trudno jest określić, czy zaistniały problem jest powodowany przez używaną aplikację, przez sterownik d karki czy też przez układy drukarki.
Bardzo często do rozwiązania problemów z drukarką wystarczy jedna ze standardowych procedur. Na przykład, jeśli zarówno przy drukowaniu strony kontrolnej z panelu sterownia drukarki, jak i przy wydruku dokumentów doświadczysz tych samych problemów z wydrukiem, możesz wykluczyć sterownik, komputer oraz połączenie między drukarką a komputerem jako możliwe źródła problemów i zacząć sprawdzać drukarkę. Jeśli te same problemy z drukowaniem pojawiają się przy korzystaniu z różnych sterowników, zazwyczaj możesz wykluczyć oprogramowanie jako źródło problemów (chyba że producent drukarki wydał wiele wersji sterownika zawierających te same błędy).
Bardzo ważnym czynnikiem jest również częstotliwość występowania błędów. Jeśl nieprawidłowości pojawiają się na jednej stronie z dziesięciu, zazwyczaj ich przyczyną nie jest oprogramowanie, lecz sprzęt, na przykład kabel łączący drukarkę z komputerem.
W dalszej części rozdziału zostały opisane najczęściej występujące problemy z drukarkami, umieszczone w zależności od źródła problemu. Kategorie powinny być jednak traktowane dość luźno, ponieważ te samo problemy mogą mieć wiele różnych przyczyn.
Ważne jest, byś uświadomił sobie, iż żadna z opisywanych tu procedur nie powinna być wykorzystywana, jeśli jej odpowiednik znajduje się w dostarczanej przez producenta instrukcji obsługi drukarki. W urządzeniu tym mogły zostać zastosowane układy i rozwiązanie znacząco różniące się od opisywanych w tym rozdziale i w związku z tym wskazania producenta dotyczące obsługiwania sprzętu i procedur rozwiązywania problemów zawsze są rozstrzygające.
Sprzętowe problemy drukarek Sprzętowe problemy drukarek są zazwyczaj związane z papierem i nośnikiem koloru Jeśli kaseta z tonerem jest prawie pusta lub też jeśli do wewnętrznych części drukarki dostanie się toner z nieszczelnego pojemnika, wygląd wydruku może się pogorszyć na wiele sposobów. Podobnie wilgotny, pogięty, lub nieprawidłowo umieszczony w podajniku papier może wywołać różne problemy. Powinieneś zawsze sprawdzić te elementy, zanim zaczniesz podejrzewać układy drukarki o uszkodzenie.
Rozmazany druk. W drukarkach laserowych nieczyste lub mocno rozmazane znaki są najprawdopodobniej spowodowane wilgotnym papierem. W drukarkach atramentowych tak wyglądające znaki powstają najczęściej wtedy, gdy korzystasz z kartek nie przeznaczonych specjalnie do określonej drukarki.
Zmienna jasność druku. W drukarkach laserowych występowanie obszarów o różnej jasności druku jest zazwyczaj wywołane nieprawidłowym rozprowadzaniem tonera na fotoreceptorze. Najczęstszą przyczyną jest nierówne ułożenie tonera w prawie całkowicie opróżnionej kasecie. Dzięki wyjęciu kasety i po-trząśnięciu nią, toner wyrównuje się i znów jest prawidłowo rozprowadzany. W ten sam sposób możesz również wydrukować jeszcze kilka stron, gdy drukarka sygnalizuje brak tonera. Jeśli drukowane strony są zawsze rozjaśniane w tych samych miejscach, problem może tkwić w położeniu drukarki. Jeśli drukarka jest przechylona, toner może przemieścić się w kasecie, przywierając do jednego z jej brzegów, co również ma wpływ na jego rozprowadzanie. Istnieje również możliwość przedostawania się do wnętrza drukarki światła powodującego zmniejszenie wrażliwości części fotoreceptora na laser. Do rozwiązania tego problemu czasem wystarcza przeniesienie drukarki w mniej oświetlone miejsce.
Zabrudzone lub uszkodzone elektrody koronowe. Znajdujące się w drukarkach laserowych elektrody koronowe umieszczają ładunki elektrostatyczne na powierzchni fotoreceptora i papieru. Znalezienie się na elektrodzie przenoszącej (ładującej papier) drobin tonera lub strzępków papieru może spowodować nierówne ładowanie kartek, przez co na wydrukach pojawią się rozmazane, pionowe białe linie. Drukowanie całkowicie czarnych lub białych stron może być spowodowane uszkodzeniem elektrody ładującej lub (zazwyczaj) przenoszącej. Kaseta z tonerem zawierająca fotoreceptor zazwyczaj zawiera również elektrodę ładującą, więc wymiana kasety może pomóc przezwyciężyć część z tych problemów. Możesz również (delikatnie!) wyczyścić zabrudzone elektrody bawełnianą ściereczką lub innym materiałem zalecanym przez producenta drukarki. Elektroda przenosząca jest najczęściej wbudowana w drukarkę (nie w kasetę) i jej uszkodzenie wymaga profesjonalnej naprawy.
Ostre pionowe biale linie. Ostre białe linie, biegnące poprzez całą wydrukowaną na drukarce laserowej stronę i nie zanikające po wymianie kasety z tonerem, są najczęściej wywołane zabrudzeniem lub uszkodzeniem jednostki wywołującej. Takie zabrudzenie uniemożliwia prawidłowe nakładanie tonera na fotoreceptor. Najprostszym sposobem
poradzenia sobie z tym problemem jest również wymiana kasety, o ile zawiera ona jednostkę wywołującą. Jeśli nie, w drukarce może być zamontowany mechanizm umożliwiający wyjęcie wałka lub nawet specjalne narzędzie umożliwiające oczyszczenie wałka bez jego demontażu. Niekiedy jest również możliwe wyczyszczenie wałka za pomocą kartki przeciągniętej poprzez szczelinę pomiędzy wałkiem a otaczającymi go metalowymi osłonami.
Plamki w regularnych odstępach. Jeśli na wydrukach drukarki laserowej zawsze pojawia się plamka lub plamki, które pozostają niezadrukowane, powodem może być rysa lub inna skaza na bębnie fotoreceptora, bądź też nagromadzenie się tonera na wałku zgrzewającym. Często możesz ustalić, który z elementów wywołuje problem, oceniając odległość pomiędzy plamkami na stronie. Jeśli plamki występują częściej niż co 7,5 centymetra (w pionie), problem najprawdopodobniej wywołuje wałek zgrzewający. Ponieważ bęben fotoreceptora ma średnicę większą od wałka zgrzewającego, plamki są rozmieszczone w większej odległości lub występuj ą tylko raz na każdej stronie. Wymienienie zawierającej bęben fotoreceptora kasety z tonerem oraz wkładki czyszczącej układ zgrzewający (impregnowanej olejem podkładki przyciśniętej do wałka zgrzewającego w celu zbierania nadmiaru tonera) powinno rozwiązać oba problemy. W przeciwnym wypadku, najprawdopodobniej będziesz musiał osobno wymienić bęben fotoreceptora oraz wkładkę czyszczącą układ zgrzewający. Bęben fotoreceptora niektórych drukarek można wymieniać tylko w profesjonalnym serwisie.
Szary druk lub szare tło. W miarę zużywania się bębna fotoreceptora w drukarkach laserowych, bęben coraz gorzej się ładuje i w związku z tym, przywiera do niego coraz mniej tonera, powodując drukowanie zamiast czerni odcieni szarości. W drukarkach, w których bęben jest częścią kasety z tonerem, nie stanowi to większego problemu, ponieważ bęben jest regularnie wymieniany. Drukarki wykorzystujące jeden bęben przez dłuższy czas najczęściej umożliwiają ci stopniowe zwiększanie ilości tonera rozprowadzającego przez jednostkę wywołującą. Może się jednak zdarzyć, że będziesz musiał wymienić bęben; w tym momencie musisz przywrócić standardowe ustawienia; jeśli tego nie zrobisz, po wymianie bębna wydruki będą miały szare tło, ponieważ jednostka wywołująca będzie nakładała na bęben fotoreceptora zbyt wiele tonera.
Tracenie tonera. Jeśli możesz poruszyć lub zetrzeć toner z wydruków drukarki laserowej, to nie został on poprawnie zgrzany z papierem. Najczęściej jest to spowodowane nieosiąganiem przez układ zgrzewający temperatury wymaganej do całkowitego stopienia tonera i wprasowania go w papier. Tego typu problem najczęściej wymaga profesjonalnej naprawy. Stale pionowe czarne linie. Pionowe czarne linie biegnące poprzez całą długość wielu kolejnych stron to oznaka, że twoja kaseta z tonerem jest już prawie pusta. Wstrząśnięcie kasety z tonerem najczęściej rozwiązuje problem, ale być może będziesz musiał ją wymienić.
Częste zacinanie się papieru. Mechanizm podajnika papieru składa się z wielu części i
może być bardzo delikatny. Papier może się zacinać, gdy kartki, z których korzystasz, są wilgotne, pogięte lub nie przeznaczone dla twojej drukarki. Okazjonalne zacinanie się papieru jest czymś normalnym, ale częste zacięcia oznaczają, że używany papier nie nadaje się do wykorzystywania w drukarce laserowej. Również ustawienie drukarki na nierównej powierzchni może powodować zacięcia.
Pojawianie się pustych stron pomiędzy stronami wydruku. Pogięte, wilgotne lub zbyt mocno ściśnięte kartki mogą powodować pobieranie przez podajnik papieru więcej niż jednej kartki. Aby temu zapobiec, przechowuj papier w chłodnym, suchym miejscu, nie układaj zbyt wysokich stosów z ryz papieru i zawsze przekartkuj ryzę, zanim umieścisz ją w podajniku.
Biedy braku pamięci/przeciążenia drukarki. Błędy te oznaczają, że wysłane do drukarki zadanie drukowania było zbyt skomplikowane lub zawierało więcej danych, niż mógł pomieścić bufor. Może to być spowodowane korzystaniem ze zbyt dużej liczby czcionek, zbyt gęstego tekstu lub zbyt skomplikowanej grafiki. Ten problem możesz rozwiązać dokupując więcej pamięci lub upraszczając drukowany dokument.
Problemy z podłączeniem Śmieci. Jeśli twoja drukarka drukuje stronę za stroną wypełnione pozornie bezsensownymi znakami, najprawdopodobniej nie potrafi rozpoznać języka opisu strony, w którym są do niej wysyłane dane. Na przykład, zadanie drukowania musi się rozpoczynać w języku PostScript od dwóch znaków %!. Jeśli drukarce nie uda się odebrać tych znaków, całą pozostałą część wydruku będzie drukować jako tekst ASCII. Ten rodzaj problemów najczęściej występuje na skutek błędów w komunikacji pomiędzy drukarką a komputerem. Sprawdź podłączenia i upewnij się, że kabel nie jest uszkodzony. Jeśli problem występuje stale, może być rezultatem nieprawidłowo skonfigurowanego portu PC - jest to szczególnie prawdopodobne, jeśli korzystasz z portu szeregowego. Sprawdź ustawione w systemie operacyjnym parametry portu szeregowego. Port szeregowy powinien być skonfigurowany tak, by korzystał z 8 bitów danych, l bitu stopu i nie wykorzystywał parzystości (N-8-1).
Niedostępność drukarki. Jeśli Windows 9x nie otrzyma poprzez określony port odpowiedzi drukarki, przełącza sterownik w tryb offline, dzięki któremu możesz drukować zadania i przechowywać je w buforze wydruku, aż do momentu, gdy drukarka stanie się dostępna. Drukarka może być niedostępna z powodu nieprawidłowego skonfigurowania portu szeregowego lub równoległego, uszkodzenia kabla łączącego ją z komputerem bądź też dlatego, że drukarka jest wyłączona, uszkodzona lub znajduje się w trybie offline. Nieprawidłowe działanie portu może być spowodowane konfliktem IRQ (LPTI standardowo wykorzystuje IRQ 7, COM 2 IRQ 3, a COM l - IRQ 4), a w przypadku portu szeregowego, powodem mogą być nieprawidłowe ustawienia bitów.
Drukarka nie informuje systemu Windows o braku papieru, zablokowaniu ani innych problemach. Jest to najczęściej spowodowane problemami z komunikacją pomiędzy drukarką a komputerem. Sprawdź, czy kabel łączący drukarkę z komputerem jest dobrze podłączony oraz czy nie jest uszkodzony. Niektórzy producenci zalecają korzystanie z kabla zgodnego ze standardem IEEE 1284.
Przerwana lub nieudana komunikacja, albo tylko częściowy wydruk poprzedzony przez śmieci. Przerwy w komunikacji pomiędzy drukarką a komputerem mogą powodować tracenie danych podczas transmisji, przez co drukarka drukuje tylko część dokumentów lub nie drukuje wcale. Pomijając uszkodzenie kabla, problemy te mogą wystąpić, jeśli korzystasz z dodatkowych urządzeń podłączonych pomiędzy portem drukarki a drukarką. Takim urządzeniem są na przykład przełączniki wykorzystywane do udostępniania drukarki wielu komputerom.
Port jest zajęty lub drukarka przechodzi do trybu offline. Te błędy mogą wystąpić, gdy ECP wysyła dane szybciej, niż drukarka potrafi je odebrać. Możesz temu zaradzić korzystając ze znajdującego się w Windows 9x okna System z panelu sterowania, w którym możesz załadować standardowy sterownik portu drukarki zamiast sterownika ECP.
Problemy ze sterownikiem Najlepszym sposobem sprawdzenia, czy określony problem jest wywołany przez sterownik drukarki, jest zaprzestanie korzystania ze sterownika. Jeśli pojawiający się w aplikacjach systemu Windows problem z drukowaniem nie pojawi się podczas wydruku katalogu z wykorzystaniem polecenia DIR > LPTI w interpreterze poleceń DOS-u, możesz być pewny, że powinieneś zainstalować nowy sterownik drukarki. Inne problemy ze sterownikiem to:
Zapala się dioda Form feed, lecz nic się nie drukuje. Oznacza to, że drukarka ma w buforze mniej niż całą stronę, a komputer nie wysłał sygnału Form Feed (przejście do następnej strony), powodującego wysunięcie wydrukowanej kartki. Zdarza się to często, gdy drukujesz z poziomu DOS-u lub aplikacji nie korzystającej z udogodnień sterownika drukarki, może być to też rezultatem uszkodzenia sterownika. Niektóre sterowniki (szczególnie języka PostScript) udostępniają opcję, której włączenie powoduje wysyłanie dodatkowego sygnału Form feed po zakończeniu druku każdej strony. Jeśli twój sterownik nie posiada takiej opcji, musisz ręcznie wyjąć kartkę, korzystając z panelu kontrolnego na drukarce.
Nieprawidlowe drukowanie czcionek. Praktycznie wszystkie drukarki laserowe posiadają zbiór fabrycznie wbudowanych czcionek i większość sterowników standardowo z niego korzysta, umieszczając wbudowane czcionki w miejscu analogicznych, zainstalowanych na komputerze czcionek TrueType i PostScript Type l. Jednak czasami pomiędzy dwiema czcionkami występują widoczne różnice i
drukowany dokument nie wygląda tak samo jak na ekranie. Niewielkie rozbieżności rozmiaru pomiędzy czcionkami mogą również powodować zmianę wyglądu odstępów drukowanego dokumentu.
Problemy aplikacji Błąd ustawienia marginesów poza zasięgiem drukowania. Większość drukarek laserowych nie może umieszczać tonera w obszarze ok. 8,5 mm od każdego brzegu kartki. Jeśli skonfigurujesz aplikację tak, by korzystała z marginesów mniejszych niż ten obszar, niektóre sterowniki wygenerują właśnie taki komunikat, podczas gdy inne po prostu obetną wydruk, by nie przekroczył maksymalnego możliwego do wydrukowania rozmiaru strony. Jeśli używana aplikacja lub sterownik pozwalają dowolnie modyfikować marginesy i nie informują o błędzie, zanim rozpoczniesz drukowanie, powinieneś zajrzeć do podręcznika i sprawdzić, jakie wartości marginesów są dozwolone.
Rozdział 20.
Samodzielny montaż komputera Obecnie, przy ogólnie dostępnych częściach komputerowych, samodzielne składanie komputera nie jest zbyt trudne. Taki komputer będzie najczęściej zawierał takie same podzespoły, co sprzęt markowy.
Należy jednak rozważyć wiele spraw. Przede wszystkim samodzielnie złożony komputer najczęściej nie jest tańszy od kupionego. Przyczyna jest prosta: firmy zajmujące się składaniem komputerów mają dostęp do tych samych części, co ty, jednak firmy te kupują je w dużych ilościach, otrzymując znaczne upusty.
Przy kupnie całego komputera płacisz tylko raz za dostawę, natomiast przy zakupie oddzielnych części - za dostawę każdej z nich. W efekcie sumaryczny koszt opłat telefonicznych za zamówienia poszczególnych elementów może wynieść ok. 100 dolarów. Wzrośnie on jeszcze w przypadku problemów z jakimś podzespołem - będziesz musiał dodatkowo telefonować lub nawet przesłać do wymiany niedziałające podzespoły.
Samodzielne składanie komputera nie ma więc nic wspólnego z oszczędnością, jest to raczej pewnego rodzaju doświadczenie. Po samodzielnym montażu masz komputer skonfigurowany dokładnie według twoich wymagań. Samo doświadczenie jest również bezcenne - wiesz dokładnie, z czego składa się komputer i jak został skonfigurowany, ponieważ sam to robiłeś. Ewentualna naprawa czy instalacja dodatkowych elementów będzie więc znacznie prostsza..
Możesz jednak trochę zaoszczędzić, jeżeli składasz nowy komputer, wykorzystując części z już posiadanego komputera. Powiedzmy, że ostatnio dołożyłeś do niego nowy dysk twardy i dodałeś trochę pamięci. Możesz teraz tych elementów użyć w nowym komputerze. Jeżeli posiadasz 30-pinowe pamięci SIMM w starym komputerze, kup płytę główną pracującą zarówno z pamięciami 30-pinowymi, jak i 72-pinowymi lub dokup przejściówkę, aby 32-pinowe pamięci można było podłączyć do gniazd 72-pinowych.
Jeżeli więc chcesz mieć satysfakcję z samodzielnego złożenia komputera, chcesz posiadać komputer nie oferowany w sklepie oraz trochę zaoszczędzić, wykorzystując niektóre części ze starego komputera - stwórz swój własny komputer. Z drugiej strony, jeżeli chcesz mieć komputer za rozsądną cenę, z łatwym dostępem do serwisu, a ponadto zależy Ci na czasie - raczej unikaj samodzielnych eksperymentów.
Części składowe komputera W skład komputera wchodzą: •
obudowa z zasilaczem,
•
płyta główna (procesor, pamięć, porty szeregowe i równoległe, kontroler dysków twardych i napędu dyskietek),
•
napęd dyskietek,
•
dysk twardy,
•
napęd CD-ROM,
•
klawiatura i myszka,
•
karta graficzna PCI i monitor,
•
karta dźwiękowa i głośniki,
•
dodatkowy osprzęt: radiatory i wentylatory, kable, system W dalszej części rozdziału omówimy każdy z wymienionych elementów.
operacyjny.
Obudowa i zasilacz Obudowa i zasilacz z reguły są sprzedawane razem. Dostępnych jest wiele rodzajów obudów: •
Miniwieża
•
Wieża
•
Des klop
•
Slimline
Z powyższych nie polecam modelu slimline. Obudowy te wymagają specjalnego typu płyty głównej, zwanego Low Profile lub LPX. Płyty LPX posiadają wbudowane prawie wszystkie elementy, nawet układy graficzne, i nie mają standardowych gniazd rozszerzeń. Zamiast nich posiadają gniazdo, w którym umieszcza się specjalną kartę z kilkoma gniazdami na karty rozszerzeń. Karty rozszerzeń są więc umieszczone równolegle do płyty głównej, a ich wkładanie jest stosunkowo kłopotliwe.
W obudowach innych niż slimline wykorzystywane są standardowo płyty główne typu Baby-AT. Są to płyty nieco mniejsze od oryginalnych płyt IBM AT.
» Patrz „Format płyty głównej",
Nowsze obudowy mogą pracować zarówno z płytami Baby-AT, jak i z płytami ATX; starsze - niestety nie. Ponieważ płyty ATX wypierają z rynku płyty Baby-AT, najlepiej zaopatrzyć się w obudowę uniwersalną.
Wybór pomiędzy obudową typu desktop a wieżą zależy głównie od indywidualnych preferencji użytkownika. Panuje przekonanie, że obudowy typu wieża są łatwiejsze w rozbudowie, posiadają wiele kieszeni na dyski, napędy dyskietek, napędy CD-ROM, streamery i inne urządzenia. Niektóre obudowy typu desktop mają ilość wolnego miejsca zbliżoną do obudów typu miniwieża. Ogólnie mówiąc, obudowy typu wieża mogą być uważane za obudowy typu desktop obrócone na bok. Występują również obudowy, których można używać zarówno w pionie, jak i poziomie.
Płyta główna Wyróżniamy kilka rodzajów płyt głównych ściśle powiązanych z obudowami, do których pasują: •
Pełnowymiarowa AT + Baby-AT + ATX
•
LTX
Nazwa pełnowymiarowej płyty AT pochodzi od oryginalnej płyty IBM AT. Jest to bardzo duża płyta o wymiarach 30,5 * 35 cm. Gniazda klawiatury i gniazda kart rozszerzeń muszą znajdować się w ściśle określonych miejscach, tak aby pasowały do otworów w obudowie. Nadają się one tylko do obudów typu wieża lub desktop. Ze względu n< miniaturyzację większość producentów nie wytwarza już płyt tego typu.
Płyta Baby-AT jest praktycznie identyczna z pełnowymiarową płytą AT, ale posiada inj ne rozmieszczenie otworów do mocowania do obudowy (patrz rysunek 20.1.). Płyty te tei posiadają ściśle określone rozmieszczenie gniazda klawiatury i gniazd kart rozszerzeń, f Prawie wszystkie pełnowymiarowe płyty AT i płyty Baby-AT używają 5-pinowego gniazda D1N do podłączenia klawiatury. Płyty Baby-AT pasują do każdej obudowy z wyjątkiem slimline. Ze względu na swą uniwersalność płyta ta jest obecnie najbardziej popularna. Na rysunku 20.1. znajdziesz wymiary i wygląd płyty Baby-AT.
Najnowszą obecnie płytą jest płyta ATX, wprowadzona na rynek przez firmę Intel w lipcu 1995 roku. Używana jest z procesorami Pentium, Pentium-Pro, Pentium II i docelowo ma zastąpić płytę Baby-AT. Płyta ta posiada takie same rozmiary jak płyta Baby-AT: lecz jest obrócona o 90 stopni, tzn. gniazda umieszczone są wzdłuż krótszego boku płyty, dzięki czemu zostaje więcej miejsca na inne elementy. Elementy wytwarzające duże ilości ciepła (procesor, pamięć) umieszczono obok zasilacza, który został tak zaprojektowany, że kieruje powietrze wprost na te elementy.
Zasilacz płyt ATX jest wyposażony w złącza uniemożliwiające odwrotne podłączenie do urządzenia oraz posiada wyjście 3,3 V, m.in. dla nowszych procesorów.
Jeśli nie teraz, to na pewno następnym razem będziesz zmuszony do kupienia płyty ATX. Prawie wszyscy producenci płyt głównych przekonali się do tego nowego typu płyty i można oczekiwać, że będą one coraz tańsze, prostsze w obsłudze oraz bardziej niezawodne.
Format micro-ATX jest dalszym rozwinięciem formatu ATX, z przeznaczeniem do wykorzystania w tańszych systemach. Architektura micro-ATX jest zgodna wstecz z ATX i nie chodzi w niej, wbrew temu, co sugeruje nazwa, o zmniejszenie fizycznych rozmiarów płyty głównej. Zamiast tego micro-ATX przewiduje zastosowanie tańszych elementów. takich jak mniejszy zasilacz SFX. Choć istnieje możliwość zakupu płyty głównej micro-ATX i późniejszego zastąpienia jej w tej samej obudowie płytą ATX, takie rozwiązanie nie jest najtańszym sposobem składania nowego systemu.
Jeśli masz zamiar zbudować pełno wy miaro wy komputer w obudowie typu desktop lub wieża, płyta główna ATX jest zdecydowanie zalecanym rozwiązaniem. Praktycznie wszyscy producenci płyt głównych zaczną produkować płyty ATX, gdy tylko system
ATX stanie się tańszy, łatwiej dostępny i bardziej niezawodny.
Inne formaty używanych obecnie płyt głównych to LPX i NLX. Te formaty wymagają użycia obudowy o obniżonym profilu i zwykle nie są polecane do budowy własnego systemu. Wynika to z istnienia wielu różnych systemów obudowy i rozmiarów kart rozszerzeń, ograniczonej możliwości rozbudowy systemu oraz trudności z operowaniem w tak ograniczonym obszarze.
Oprócz tego pomiędzy płytami głównymi LPX mogą występować pewne różnice, istnieje więc ryzyko, że płyta główna nie będzie pasowała do danej obudowy. Format NLX jest kolejnym otwartym standardem opracowanym przez firmę Intel, z właściwościami porównywalnymi z ATX, zdefiniowanym jednak dla obudów typu slimline (dla tych obudów opracowano specjalny rozkład elementów na płycie głównej). Systemy oparte na standardzie NLX nie powinny przysporzyć problemów ze zgodnością, jakie występują w systemach LPX, jednak inne problemy związane z obudowami o obniżonym profilu pozostają aktualne. Te typy formatów obudów są popularne wśród dużych firm i nowych użytkowników, a to z powodu małych rozmiarów całego systemu i rozwiązań typu „wszystko na płycie głównej".
Płyty LPX i Mini-LPX są używane w komputerach typu slimline. Nie polecam ich ze względu na różne rodzaje obudów. Ponieważ występują znaczne różnice pomiędzy płytami LPX, nie każda pasuje do wybranej obudowy. Dodatkowo dostosowane do nich obudowy posiadają mało gniazd rozszerzeń i kieszeni na napędy. Dlatego też nie polecam płyt tego typu. Płyta Baby-AT to obecnie najbardziej popularna i najbardziej uniwersalna płyta główna.
Oprócz rodzaju samej płyty głównej, przy zakupie powinieneś rozważyć typ procesora i chipsetu. Wybieraj spośród płyt pracujących z następującymi procesorami:
* Pentium * Pentium MMX (MultiMedia Extensiori) * Pentium Pro * Pentium II
Płyty te z reguły posiadają podstawki typu ZIF (Zero Insertion Force) i mogą pracować z procesorami Pentium od 120 MHz do 230 MHz. Skrót MMX oznacza rodzaj procesorów Pentium posiadających dodatkowe instrukcje przyspieszające działanie aplikacji multimedialnych. Pentium II to najnowszy procesor Intela wykorzystywany głównie w 32-bitowych systemach operacyjnych, takich jak Windows NT.
W zależności od zainstalowanego procesora i prędkości jego pracy może być konieczne odpowiednie ustawienie zworek. Zworkami można również ustawiać odpowiednie napięcie zasilające procesora, należy je więc dokładnie sprawdzić, w przeciwnym razie płyta bądź procesor mogą nieprawidłowo pracować.
Następnym po procesorze elementem, którego dobór powinieneś przemyśleć przy zakupie komputera jest chipset. Zawiera on główne układy płyty głównej i zastępuje ponad sto dyskretnych elementów używanych w oryginalnych płytach IBM AT. Chipset zawiera kontrolery magistrali, pamięci cache, pamięci głównej, DMA i przerwań oraz kilka innych układów. Rodzaj użytego w płycie głównej chipsetu ma istotny wpływ na wydajność płyty oraz określa takie parametry, jak rozmiar i prędkość pamięci cache i pamięci głównej, rodzaj i prędkość procesora.
Ponieważ powstają wciąż nowe typy chipsetów, a stare są ulepszane, nie jestem tu w stanie wymienić ich wszystkich wraz z ich funkcjami. Dla przykładu omówię kilka z nich, które są wykorzystywane w płytach z procesorami Pentium. Najlepsze współpracują m.in. z pamięcią EDO (Extended Data Out) RAM. synchroniczną pamięcią cache SRAM, magistralą lokalną AGP, standardem APM (Advanced Power Management) z interfejsem IDE.
Oto kilka wysokowydajnych chipsetów występujących w płytach głównych z procesorami Pentium, Pentium Pro, Pentium II:
Intel 440BXAGPset. Wydany w momencie pojawienia się procesorów Pentium II 350 i 400 MHz, chipset 440BX jest pierwszym, który obsługuje 66- i 100-megahercowe magistrale systemowe oraz magistrale procesora od 233 do 400MHz. Chipset zawiera układ 82443BX Host Bridge/Controller, zapewniający mostek pomiędzy systemem a magistralą PCI, zoptymalizowany kontroler pamięci DRAM oraz interfejs AGP x2 (Accelerated Graphics Port). Przeznaczony dla aplikacji grafiki 3D i multimediów, chipset wykorzystuje technologię nazywaną Quad Port Acceleration, która używa oddzielnych buforów i arbitrażu dla głównej magistrali procesora, magistrali PCI, portu graficznego i pamięci SDRAM. Ten chipset posiada także funkcje zarządzania mocą zdefiniowane w specyfikacji ACPI (AdvancedConfiguration and Power Interface) firmy Intel.
Intel 440LXAGPset. Zaprojektowany dla systemów Pentium II, chipset 440LX jest pierwszym chipsetem Intela obsługującym port AGP przy pomocy układu 8243LX PCI AGP Controller (PAC). 440LX korzysta także z technologii Quad Port Acceleration Intela, obsługuje zarządzanie mocą ACPI, wykorzystuje także protokół Cjuantum Ultra DMA zwiększający prędkość przesyłania danych interfejsu ATA/1DE do 33 MB/s.
Intel 440FX PCIset. O kodowej nazwie Natoma i zaprojektowany dla systemów z
dwoma procesorami Pentium II lub Pentium Pro, chipset 440FX PCIset zawiera układy 82441FX PCI and Memory Controller (PMC), 82442FX Data Bus Accelerator (DBX) oraz 82371SB PCI ISA IDE Xcelerator (PITO). Układy PMC i DBX funkcjonują jako dwuukładowy mostek Host-to-PCI, pełniąc funkcje interfejsu PCI, obsługując arbitraż PCI oraz kontrolera DRAM. Chipset obsługuje także magistralę USB (Universal Serial Bus). Intel 430TX PCIset. Zaprojektowany dla systemów Pentium MMX, chipset 430TX zawiera układy 82439TX System Controller (MTXC) oraz 82371AB PCI ISA IDE Xcelerator (PIIX4), obsługujące zarówno systemy przenośne, jak i stacjonarne.
Intel 430HX PCIset. O kodowej nazwie Triton II, chipset ten został zaprojektowany dla systemów opartych na procesorze Pentium (bez MMX) i zawiera układy 82439HX System Controller (TXC) oraz 82371 SB PCI I/O IDE Xcelerator (PIIX3). Układ TXC zapewnia funkcję kontroli pamięci podręcznej drugiego poziomu oraz pamięci DRAM, funkcjonując jednocześnie jako jednoukładowy mostek Host-to-PCI. Chipset 430HX został wydany jako druga generacja chipsetu 430GX PCIset, która nie zawiera obsługi pamięci RAM z bitem parzystości. Chipset 430HX zapewnia obsługę do 512 MB pamięci RAM z parzystością oraz/lub pamięci z ECC (Error Correcting Code).
Intel 430VX PCIset. Także przeznaczony do użycia z procesorami Pentium, chipset 430VX zawiera układ 82437VX System Controller (TVX), dwa układy 82438VX Data Paths (TDX) oraz 82371 SB PCI ISA IDE Xcelerator (PIIX3). Chipset pełni funkcję mostka Host-to-PCI, zapewnia pełne funkcjonowanie ścieżki danych do głównej pamięci oraz kontrolę pamięci podręcznej drugiego poziomu, obsługując przy tym magistralę USB (Universal Serial Bus).
Intel 430FX PCIset. O kodowej nazwie Triton, zaprojektowany dla systemów Pentium chipset 430FX zawiera układ 82437FX Triton System Controller (TSC), dwa układy 82438FX Triton Data Paths (TDP) oraz układ 82371FBPCI ISA IDE Xcelerator (PIIX). Układ TSC integruje w sobie funkcję kontrolera pamięci głównej i podręcznej, steruje także pracą magistrali przekazujących dane pomiędzy procesorem, pamięcią podręczną, pamięcią główną oraz magistralą PCI. Kontroler pamięci podręcznej drugiego poziomu zawarty w TSC obsługuje zapisy write-back do pamięci podręcznej o rozmiarze 256 kB i 512 kB, a także dla tańszych systemów bez pamięci podręcznej. Pamięć podręczna może być zaimplementowana przy pomocy standardowych pamięci SRAM, pamięci burst lub pamięci pipeline burst. Układy TSC i TDP razem obsługują do 128 MB pamięci standardowej lub EDO. PIIX pełni funkcję mostka PCI-to-ISA. zawierając także kontrolery DMA, kontrolery przerwań, zegar/licznik, obsługę zarządzania mocą oraz interfejs Enhanced IDE, zawierający dwa złącza IDE umożliwiające podłączenie do czterech urządzeń IDE. Inni producenci produkują inne chipsety, na przykład takie jak poniższe:
Opti Yiper. Układ 82C550 Viper-DP firmy Opti obsługuje nie tylko procesory Pentium, ale także AMD K5 i Cyrix Ml, zarówno w systemach z pojedynczym, jak i z dwoma
procesorami. Chipset Viper-DP składa się z trzech układów: 82C556 Data Buffer Controller (DBC), 82C557 System Controller (SC) oraz 82C558 Integrated Peripherals Controller (IPC). SC jest głównym układem i zawiera sterownik pamięci głównej, sterownik pamięci podręcznej drugiego poziomu oraz interfejsy PCI i VL-Bus. IPC zawiera kontroler magistrali ISA, kontrolery DMA i przerwań, a także mostek PCI-to-ISA. Układ DBC buforuje procesor i pamięć główną i zawiera obwody kontroli parzystości i wykrywania błędów. Yiper obsługuje do 512 MB pamięci EDO lub standardowej, z kontrolą lub bez kontroli parzystości, oraz do 2 MB pamięci podręcznej drugiego poziomu, zbudowanej z asynchronicznej pamięci SRAM, pamięci burst lub pamięci pipeline burst.
ALi Aladdin. Chipset Aladdin Ml510 stworzony przez Acer Laboratories Inc. także obsługuje procesory Pentium, AMD K5 i Cyrix Ml w systemach jedno-i dwuprocesorowych. Aladdin M1510 składa się z czterech układów. Zawiera układ Ml511 Memory/Cache Controller obsługujący pamięć standardową i EDO do 768 MB, z kontrolą lub bez kontroli parzystości. + A VI Apollo MVP3. Zaprojektowany do użycia z procesorami Pentium Socket 7, chipset MVP3 obsługuje systemy o szybkości magistrali do 100 MHz, AGP w wersji 1.0 oraz interfejs EIDE UltraDMA-33. Oparty o kontroler systemu YT82C598AT (476-nóżkowy układ BGA) oraz mostek PCI-to-ISA YT82C586B (208-nóżkowy układ PQFP), chipset obsługuje zarządzanie mocą ACPI, konkurencyjny dostęp procesora i AGP, a także pamięci FPM (Fast Page Modę), EDO, SDRAM oraz DDR SDRAM.
» Patrz „Czym należy się kierować przy zakupie płyty głównej"
Jasne jest, że wybór chipsetu musi być uzależniony głównie od procesora, jakiego chcesz użyć, oraz od dodatkowych komponentów, jakie zamierzasz zainstalować w komputerze. W czasie pisania tej książki system z płytą główną ATX, procesorem Pentium II i chipsetem Intel 440BX AGPset jest najszybszą konfiguracją i łatwo daje sobie radę z wymagającą grafiką i multimediami dzisiejszych aplikacji. Oryginalna wersja układu Triton (FX) nie posiada funkcji kontroli parzystości. Oznacza to, że płyta główna z tym układem nie wykrywa błędów pamięci podczas pracy systemu, nawet jeżeli posiadasz układy pamięci SIMM z bitem parzystości. Ze względu na to, iż w szczególnie ważnych komputerach, takich jak serwery plików, nie mogą być używane układy bez kontroli parzystości, Intel wypuścił na rynek drugą generację układów Triton zwaną Triton II, która posiada zarówno funkcję kontroli parzystości, jak i funkcję ECC (Error Correcting Code).
Poniżej przedstawiam funkcje, jakie powinien posiadać wybrany przez ciebie chipset:
* obsługa pamięci SDRAM oraz EDO RAM, * obsługa synchronicznej pamięci cache, * kontrola parzystości,
* obsługa pamięci ECC, * funkcje zarządzania zużyciem energii, * obsługa standardu MMX (jeśli planujesz używać aplikacji multimedialnych), 4 obsługa magistrali PCI.
Większość dostępnych układów spełnia powyższe wymagania. Jeżeli sam kupujesz płytę główną, skontaktuj się z producentem chipsetu i poproś go o dokumentację do posiadanego układu. Zawiera ona informacje o sposobie działania układów wchodzących w skład chipsetu oraz opis funkcji dostępnych w opcji Advanced Chipset Setup programu konfiguracyjnego BIOS-u. Posiadając tę dokumentację, będziesz w stanie właściwie skonfigurować płytę główną poprzez ustawienie odpowiednich parametrów chipsetu. Ponieważ chipsety produkowane są niezbyt dużymi partiami, staraj się skontaktować z firmą jak najszybciej, gdyż większość producentów posiada tylko dokumentacje do aktualnie wytwarzanych układów.
Firmy wytwarzające płyty główne kupują chipsety w cenie 40 dolarów za sztukę. W przypadku uszkodzenia płyty głównej praktycznie nie masz szans na dostanie chipsetu, ponieważ nie są one magazynowane przez producenta po zakończeniu produkcji. Niska cena chipsetu sprawia, że uszkodzone płyty są najczęściej wymieniane na nowe i bardzo rzadko naprawiane.
Kolejnym składnikiem płyty głównej jest BIOS (Basic Input/Output System), zwany także ROM BIOS ze względu na nazwę układu, w którym jest zawarty. Polecam wybór jednego z głównych producentów układów BIOS: AMI, Phoenix, Award, Microid Research. Zwróć uwagę, aby BIOS znajdował się w układzie typu Flash ROM lub EEPROM (Electrically Erasable Programmable Read Only Memory), co pozwoli na wgranie uaktualnień BlOS-u. Jeśli BIOS będzie w układzie innego typu, będziesz musiał wymienić cały układ w przypadku konieczności aktualizacji.
Sprawdź także, czy wybrana płyta i BIOS obsługują standard Ping and Play (PnP>. Ułatwi to instalację nowych kart. Standard ten automatyzuje proces instalacji, a dzięki specjalnemu programowi wbudowanemu w BIOS i system operacyjny (np. Windows 98) pozwala na automatyczną konfigurację kart oraz usuwanie konfliktów sprzętowych.
Procesor Procesor jest najczęściej sprzedawany razem z płytą główną. Tak robi większość markowych producentów, dając gwarancję na obydwa podzespoły. Można jednak kupić procesor i płytę oddzielnie. Procesor standardowo umieszczony jest w gnieździe ZIF. Sprawdź, czy zworki są prawidłowo ustawione - muszą odpowiadać typowi procesora, jego prędkości i napięciu zasilania.
Pamięci Komputer potrzebuje pamięci cache drugiego poziomu, tak samo jak pamięci głównej. Pamięć cache występuje w formie pojedynczych układów SRAM lub jako tzw. COAST (Cache On A Stick) lub CELP (Card Edge Low Profile). COAST i CELP to różne nazwy nowego standardu układów SIMM dla pamięci cache. Od standardowych układów SIMM różnią się ilością pinów i nie są z nimi wymienne.
Większość płyt głównych dla procesorów Pentium może posiadać do 512 kB pamięci cache. Dostępne są układy: asynchroniczne i synchroniczne. Te ostanie posiadają najlepszą wydajność, tak więc jeżeli tylko płyta współpracuje z tego typu pamięcią, wybieraj pamięć synchroniczną. W przeciwieństwie do płyt dla procesorów Pentium, większość płyt dla procesorów 486 nie współpracuje z pamięcią synchroniczną. Wynika to z faktu, że szybsze układy pamięci cache nie mogą pracować z magistralami pracującymi z prędkością od 33 do 40 MHz (magistrala komputera Pentium pracuje z prędkością 60-66 MHz).
Procesory Pentium Pro oraz Pentium II nie wymagają dodatkowej pamięci Cache Level 2 na płycie głównej, gdyż posiadająją wbudowaną w układ procesora.
Pamięć główna występuje w postaci układów SIMM (Single Inline Memory Modliłeś) i DIMM (Dnal Inline Memory Modules). Wyróżniamy trzy fizyczne rodzaje układów pamięci głównej:
* 30-pinowy układ SIMM, * 72-pinowy układ SIMM, * 168-pinowy układ DIMM.
Jeszcze kilka lat temu większość komputerów była wyposażona w 30-pinowe układy SIMM, natomiast obecnie najbardziej popularne są 72-pinowe układy SIMM. Wiele komputerów klasy wyższej używa układów DIMM ze względu na to, iż są to układy 64bitowe i mogą być stosowane jako pojedyncze banki pamięci w komputerach Pentium i Pentium Pro. W zależności od typu procesora konieczna jest instalacja różnej ilości modułów SIMM, aby zapełnić bank pamięci.
Na przykład w komputerze 486 potrzeba czterech 30-pinowych układów SIMM, natomiast w przypadku 72-pinowego modułu SIMM wystarczy jeden układ. Przyczyna jest taka, że te ostatnie to układy 32-bitowe, natomiast 30-pinowe SIMM-y to układy 8bitowe. 64-bitowy komputer Pentium będzie więc potrzebował do zapełnienia banku pamięci dwóch 72-pinowych układów SIMM lub pojedynczego 168-pinowego modułu DIMM.
Moduły pamięci mogą posiadać na każde osiem bitów dodatkowy bit używany do kontroli parzystości - nazywane są one modułami pamięci SIMM lub DIMM z kontrolą parzystości. Takie układy są wymagane przez starsze płyty główne. Nowsze płyty nie posiadają kontroli parzystości, tak więc nie trzeba używać w nich trochę droższych układów SIMM z kontrolą parzystości. Można je wprawdzie zainstalować, ale i tak bit parzystości nie będzie działał. Ta tendencja do eliminowania kontroli parzystości wydaje mi się niezbyt przemyślana, niemniej wiele nowych płyt głównych (tych opartych na chipsetach Intel Triton i Triton II) nie posiada tej funkcji.
Warto również sprawdzić, z czego wykonane są metalowe kontakty modułów pamięci. Mogą być cynkowane albo pozłacane. Chociaż pozłacane kontakty są lepsze, nie nadają się do każdego komputera. Zawsze powinno się dopasowywać rodzaj kontaktu modułu pamięci do kontaktu gniazda na płycie głównej. Jeżeli więc gniazda posiadają cynkowane kontakty, koniecznie kup pamięci również z cynkowanymi kontaktami.
Jeśli użyjesz różnych typów kontaktów, po stronie kontaktu cynkowanego nastąpi szybszy proces korozji i mogą powstawać słabe prądy elektryczne. Połączenie korozji z tymi słabymi prądami powoduje błędy pamięci. Sam zaobserwowałem, że w komputerze wszystko działa normalnie do około roku, kiedy korozja rozwija się. Potem od czasu do czasu pojawiają się błędy pamięci. Wprawdzie przeczyszczenie kontaktów usuwa ten problem, ale po roku znów on powraca. A co by się działo, gdybyś opiekował się setką komputerów? Najprostszym sposobem jest używanie tego samego rodzaju kontaktu po stronie modułu pamięci i gniazda.
Na zakończenie wspomnę jeszcze o pamięciach typu EDO (Extended Data Out). Są to trochę ulepszone układy pamięci, niewiele droższe od standardowych. Dają niewielki wzrost wydajności, ale tylko w płytach zaprojektowanych z myślą o pamięci EDO. Płyty takie mogą również używać standardowych modułów, jak również moduły EDO mogą być stosowane w starszych płytach. Oczywiście poprawy wydajności wtedy nie uzyskamy. Patrz „Rozszerzanie pamięci komputera"
Porty Większość nowszych płyt posiada wbudowane porty. Jeżeli płyta ich nie posiada, to musimy korzystać z karty rozszerzeń i tracimy gniazdo rozszerzeń. Oto lista wbudowanych portów występujących w nowych płytach:
* gniazdo myszki (PS/2), * dwa porty Enhanced IDE (primary i secondary), * kontroler napędu dyskietek, * dwa porty szeregowe (z układem UART 16550A, buforowane), * port równoległy (typu EPP/ECP).
Umieszczenie tych portów bezpośrednio na płycie głównej stało się możliwe dzięki zastosowaniu układu zwanego Super I/O. Układ ten kosztuje poniżej 5 dolarów (przy zakupie powyżej 1000 sztuk), a dodając go do płyty, oszczędza się na znacznie droższych kartach rozszerzeń.
Jeżeli płyta nie posiada takiego układu, stosuje się np. karty Multi-I/O, które zawierają te same porty. W nowszych kartach tego typu używa się pojedynczego układu, jako że jest to tańsze i bardziej niezawodne.
Napęd dyskietek Oczywiście w każdym komputerze niezbędny jest napęd dyskietek. Zwykle jest to napęd na 3" calowe dyskietki 1,44 MB, ale osobiście polecam napędy na dyskietki 2,88 MB. Są one w pełni kompatybilne z napędami 1,44 MB i większość kontrolerów i BIOS-ów obsługuje te napędy.
Jeśli jesteś zainteresowany napędami 5Vi cala, polecam napędy combo zawierające w jednym urządzeniu zarówno napęd 3,5", jak i napęd 5% cala. Są one wytwarzane przez wielu producentów i mieszczą się w kieszeni 5W. Firma Teac produkuje nawet napędy combo, gdzie w jednym urządzeniu jest napęd CD-ROM poczwórnej prędkości i napęd dyskietek 3,5". Wadą napędów combo jest to, iż w wypadku uszkodzenia jednego z napędów tracimy dwa napędy. Szkoda, że żadna z firm nie wytwarza takich urządzeń z napędami na dyskietki 2,88 MB.
W przypadku wymiennych nośników danych i nośników dla kopii zapasowych standardem de facto staje się napęd Iomega Zip o pojemności 100 MB. Modele wewnętrzne są podłączane poprzez interfejs EIDE lub SCSI. Same napędy i nośniki są niedrogie, zaś ich pojemność 100 MB jest o wiele bardziej praktyczna niż stos dyskietek. Możesz także kupić połączenie stacji dysków z napędem Zip, mieszczące się w standardowej kieszeni o połowie wysokości. W zależności od potrzeb masz do dyspozycji także inne rodzaje wymiennych nośników o różnych pojemnościach. Największą pojemność mają napędy Iomega Jaz, występujące w wersjach o pojemności l i 2 GB, podczas gdy inni producenci, na przykład Syąuest, oferuje napędy o różnorodnych pojemnościach.
Dobrą alternatywą dla napędu Zip jest napęd Imation LS-120, gdyż na własnym nośniku potrafi pomieścić 120 MB, jednocześnie potrafiąc w tym samym napędzie obsłużyć standardowe dyskietki 1,44 MB. Jeśli posiadasz nowszy BIOS jednego z bardziej znanych producentów (Award, Phoenix lub AMI), możesz z dysków Imation uruchamiać system, podobnie jak ze zwykłej dyskietki.
Komputer wymaga również twardego dysku. Minimalna zalecana jego wielkość to 2 GB, choć w niektórych zastosowaniach wystarczyłby mniejszy. (Taki mniejszy dysk będzie trudno kupić.) W wypadku bardziej zaawansowanych zastosowań może być niezbędny nawet dysk 8 GB. Najbardziej popularnym interfejsem jest IDE, ale w wielozadaniowych systemach operacyjnych wskazany jest dysk SCSI. Interfejs IDE posiada lepszą wydajność w przypadku pojedynczego dysku, jednak przy wielu napędach i systemie wielozadaniowym, jak Windows 95 lub NT, lepszy jest interfejs SCSI. Wynika to ze zdolności interfejsu SCSI do przejmowania części operacji wejścia/wyjścia, przez co odciąża on procesor.
Wybór dysków jest duży i przy tej samej wielkości i cenie większość z nich posiada zbliżoną wydajność.
Patrz„IDElcbntra SCSI", rozdział 15. Napęd CD-ROM jest obecnie obowiązkowym wyposażeniem każdego komputera. Wynika to z faktu, że większość programów, zwłaszcza multimedialnych, rozprowadzana jest na CDROM-ach. Niektóre systemy mogą nawet startować z dysku CD (np. Windows NT). Dostępnych jest kilka typów napędów CD-ROM; osobiście polecam jako minimum napęd o czterokrotnej prędkości, z interfejsem IDE. Jeśli jednak posiadasz kontroler SCSI, kup napęd CD-ROM również SCSI. Istnieje kilka odmian standardowego napędu CD-ROM, które możesz wziąć pod uwagę. Na przykład istnieje połączony napęd opracowany przez firmę Panasonic, noszący nazwę PDROM. Ten napęd potrafi odczytać standardowe płytki CD-ROM, a także specjalne, wymienne nośniki o takiej samej pojemności co płytka, w przybliżeniu 660 MB. Niestety, nie da się korzystać z obu nośników w tym samym czasie, przez co niemożliwe jest użycie tego napędu do jednego z najoczywistszych celów, tj. kopiowania płyt CD-ROM.
Możesz także rozważyć zakup nagrywarki CD, zwanej powszechnie napędem CD-R. Wypalanie własnych płyt CD może być wygodnym i tanim sposobem archiwizacji danych. Większość napędów CD-R to napędy WORM (write once, readmany, tj. jednokrotnego zapisu umożliwiającego wiele odczytów), umożliwiające także odczyt standardowych płytek CD-ROM. Ostatnio na rynku pojawiły się także urządzenia wielokrotnego zapisu, nazywane CD-RW, jednak w odróżnieniu od płyt CD-R, płyty CD-RW nie mogą być odczytywane w standardowych napędach CD-ROM, gdyż ich współczynnik odbicia wynosi 25-35% wartości współczynnika odbicia standardowej płytki CD-ROM. Istnieją także napędy DYD-ROM, które gwałtownie zdobywają popularność ze względu na ogromną ilość danych, jakie można zapisać na pojedynczej płytce. Napędy DYD-ROM korzystają z nośników o dużej gęstości, o wymiarach takich samych jak płytki CDROM, mieszczących jednak wielokrotnie więcej danych: od 4,7 do 17 GB, w zależności od użytego formatu. Ta technologia jest wciąż jeszcze bardzo młoda, ale napędy DYD-ROM już teraz potrafią odczyty wać standardowe płytki CD-ROM i CD audio.
Drukowanie piezoelektryczne Piezoelektryczna technika drukowania jest nowsza od techniki termicznej i zarazem dużo od niej korzystniejsza. Zamiast wykorzystywać ciepło, drukarki te wysyłają ładunek elektryczny do piezoelektrycznych kryształów znajdujących się w dyszach głowicy. Kryształy pod wpływem prądu elektrycznego zmieniają kształt, dzięki czemu przez dysze wytryskuje atrament.
Wyeliminowanie wysokich temperatur z procesu drukowania drukarek atramentowych było bardzo korzystne. Przede wszystkim, wybór atramentów, które mogą wytrzymać temperaturę 200 stopni, jest bardzo ograniczony. Technologia piezoelektryczna umożliwiła wykorzystanie w drukarkach atramentów lepiej nadających się do procesu drukowania i mniej podatnych na rozmazywanie, które jest tradycyjnym problemem drukarek atramentowych. Ponieważ dysze rozpylające w drukarkach piezoelektrycznych nie są wystawiane na działanie wysokich temperatur, znacząco przedłużyła się ich trwałość.
Ograniczenia drukarek atramentowych Ponieważ uzyskanie dobrej jakości punktów za pomocą płynnego atramentu jest trudniejsze niż za pomocą tonera, drukarki atramentowe mają zazwyczaj niższe rozdzielczości od drukarek laserowych. Drukowanie atramentowe jest również trochę wolniejsze od laserowego. Istnieje techniczna możliwość wyprodukowania bardzo zaawansowanej drukarki laserowej, tworzącej 16 stron na minutę (ppm), drukarki atramentowe są jednak ograniczone pod tym względem szybkością rozprowadzania płynnego atramentu i z tego powodu rzadko potrafią wydrukować więcej niż graniczną wartość 8 stron na minutę. Jednak największym problemem dotyczącym niemal wszystkich drukarek atramentowych jest tendencja do rozmazywania się atramentu na standardowych kartkach. Istnieją co prawda specjalnie dostosowane do drukarek atramentowych kartki, których używanie eliminuje ten problem, jednak są one drogie i jest ich niewiele w porównaniu z różnorodnością rodzajów papieru przeznaczonego dla drukarek laserowych.
Drukarki igłowe Przez pewien okres, drukarki igłowe były najpopularniejszym typem drukarek na rynku, ponieważ były małe, tanie, niedrogie w eksploatacji i niezawodne. Jednak z chwilą obniżenia się cen drukarek laserowych oraz pojawienia się na rynku drukarek atramentowych, oferujących o wiele lepszą jakość wydruku za praktycznie tę samą cenę, rynek drukarek igłowych załamał się. Pomimo iż za ich pomocą nadal można było osiągnąć zadowalającą jakość przy wykonywaniu wielu zadań, drukarki igłowe przede wszystkim były zbyt głośne, oferowały średniąjakość wydruku i nie posiadały wygodnych podajników papieru.
W przeciwieństwie do drukarek laserowych i atramentowych, drukarki igłowe nie przetwarzały od razu całej strony dokumentu. Zamiast tego, działały bazując na ciągu znaków ASCII ułożonych w jednej linii, dzięki czemu nie potrzebowały dużych buforów pamięci. W związku z tym, ich prędkość nie jest mierzona w stronach na minutę (ppm), lecz w znakach na sekundę. W odróżnieniu od drukarek laserowych, drukarki igłowe prawie nie przetwarzają drukowanej strony. Nie korzystają z kompleksowych języków
opisu strony, takich jak PostScript czy PCL. Strumień danych przesyłanych z komputera zawiera sekwencje kodów sterujących wykorzystywane do konfigurowania podstawowych parametrów wydruku, takich jak rozmiar strony czy też rozdzielczość drukowania. Wszystkie bardziej skomplikowane operacje przetwarzania wydruku musi wykonać komputer.
W trakcie drukowania drukarki igłowe przesuwają kartkę o jedną linię w pionie za pomocą pokrytej gumą rolki. W tym samym czasie, umieszczona na metalowym pręcie głowica przemieszcza się w poziomie. Głowica zawiera matrycę metalowych igieł (najczęściej 9 lub 24), za pomocą której tworzy punkty na wydruku. Pomiędzy igłami a kartką, podobnie jak w maszynach do pisania, znajduje się nasączona atramentem taśma. Igły, uderzając poprzez taśmę w papier, tworzą serie niewielkich punktów, które formują znaki typograficzne. Dzięki zastosowaniu techniki buforowania taśmowego, drukarki igłowe mogą również drukować rysunki w niskiej rozdzielczości.
W drukarkach igłowych źródłem papieru jest najczęściej ciągła taśma. Wiele modeli potrafi również wykorzystywać pojedyncze kartki, ale rzadko z dokładnością osiąganą w większości drukarek laserowych i atramentowych. Ponieważ następuje fizyczne zetknięcie się głowicy z papierem, drukarki te często są nazywane drukarkami uderzeniowymi. Dzięki tej właściwości, drukarki igłowe mogą robić coś, co jest nieosiągalne dla drukarek laserowych i atramentowych - a mianowicie drukować wielokrotnie formularze i kopie przez kalkę. Wiele drukarek umożliwia zwiększenie siły uderzeń, by można było drukować za jednym razem więcej kopii. Drukarki igłowe nie sąjuż jednak wykorzystywane przy wydrukach biurowych, czasem jeszcze zdarza się, że są stosowane w korespondencji. Zamiast tego znalazły dla siebie miejsce w zastosowaniach komercyjnych, na przykład w bankach lub hotelach.
Drukowanie w kolorze Drukarki kolorowe, przez dłuższy czas dostępne tylko dla profesjonalnych grafików lub innych zaawansowanych użytkowników, obecnie zaczynają się stawać coraz częstszym dodatkiem domowych komputerów. Uproszczenie technologii drukarek atramentowych umożliwiło producentom rozpoczęcie produkcji bardzo tanich drukarek generujących kolorowe wydruki, które być może nie spełniały oczekiwań profesjonalistów, ale wystarczały na domowe potrzeby. Istnieje wiele typów drukarek kolorowych, których konstrukcje są w większości adaptacjami istniejących już technologii druku czarno-białego. Drukarki kolorowe najczęściej działają w oparciu o ten sam nośnik w różnych kolorach (najczęściej czterech). Drukarki atramentowe korzystają z czterech pojemników z różnymi kolorami atramentu, a drukarki laserowe - z czterech kolorów tonera. W procesie nazywanym drukowaniem offsetowym można stworzyć właściwie każdy kolor dzięki łączeniu w różnych proporcjach czterech kolorów: żółtego, czarnego, cyjanu i magenty. Technika ta bazuje na przestrzeni kolorów CMYK. Niektóre tanie drukarki (najczęściej atramentowe) nie posiadają pojemnika z czarnym tuszem i uzyskują czerń łącząc trzy pozostałe kolory. Jest to jednak nienajlepsze rozwiązanie, a uzyskane rezultaty odbiegają od jakości osiąganej przy stosowaniu czarneęo atramentu.
Klawiatura i myszka Do pracy 2. komputerem niezbędna jest także klawiatura i jakieś urządzenie wskazujące, najczęściej myszka. Różnym osobom odpowiadają różne typy klawiatur. Polecam wypróbowanie kilku typów, zanim zdecydujesz się na zakup. Dla mnie najlepsza jest twarda klawiatura z klikającymi klawiszami, ale ktoś inny może woleć bardziej miękką i cichszą. Ze względu na istnienie dwóch rodzajów wtyków sprawdź, czy wybrana przez ciebie klawiatura posiada taki, który pasuje do gniazda w płycie głównej. Płyty Baby-AT posiadają najczęściej duże 5-pinowe gniazdo DIN, a płyty ATX - 6-pinowe małe gniazdo DIN. Te ostatnie gniazda zaczynają powoli dominować. W przypadku niektórych płyt możesz przy zakupie wybrać rodzaj gniazda. Możesz również kupić klawiaturę z wtykiem nie pasującym do gniazda płyty - będziesz musiał dokupić specjalną przejściówkę.
Powyższe uwagi dotyczą również wyboru myszki lub innego urządzenia wskazującego -wybór zależy od indywidualnych preferencji. Wypróbuj kilka myszek, zanim zdecydujesz się na konkretną. W przypadku płyt głównych z wbudowanym gniazdem (gniazdo PS/2 - nazwa pochodzi od systemu IBM PS/2, w którym został wprowadzony ten typ portu myszki) wybierz myszkę z wtykiem pasującym do niego. Niektóre myszki współpracują z portem szeregowym, ale jeżeli płyta główna posiada zintegrowany port myszki, zostaw port szeregowy dla innych urządzeń.
Zanim poddasz się pokusie zaoszczędzenia kilku złotych na jednym z tych urządzeń, dobrze się zastanów. Pamiętaj, że za każdym razem, gdy korzystasz z komputera, musisz używać zarówno klawiatury, jak i myszki.
Karta graficzna i monitor Do pełni szczęścia potrzeba Ci jeszcze karty graficznej PCI, lub AGP i monitora. Wybór jest naprawdę olbrzymi; najważniejszy jest jednak dobry monitor. Praca z nim może być albo męką, albo przyjemnością, w zależności od tego, jaki wybierzesz.
Polecam monitor co najmniej 17-calowy. Mniejsze monitory słabo pracują z rozdzielczością 1024 x 768. Jeśli zdecydujesz się na monitor 15-calowy lub mniejszy, najwyższa rozdzielczość, z jaką będziesz mógł pracować, to 800 x 600. Wprawdzie monitory 15-calowe mogą wyświetlać obraz z rozdzielczością 1024 x 768 i większą, jednak wielkość znaków na ekranie jest tak mała, że praca przy takiej rozdzielczości powoduje zmęczenie wzroku. Jeśli więc zamierzasz spędzać dużo czasu przed monitorem i pracować z dużą rozdzielczością, powinieneś kupić monitor 17-calowy.
Karta graficzna powinna móc pracować z taką samą częstotliwością odświeżania jak monitor; minimum dla stacjonarnych monitorów to 70-72 Hz. Im więcej, tym lepiej. Jeśli na przykład kupisz kartę, która może pracować z 16 milionami kolorów przy rozdzielczości 1024 x 768 i z częstotliwością odświeżania 75 Hz, natomiast maksymalna częstotliwość
odświeżania monitora przy tej rozdzielczości wynosi 56 Hz, nie wykorzystasz w pełni możliwości karty graficznej.
Karty graficzne w ostatnich latach zaczęły standardowo wykorzystywać interfejs PCI, jednak pojawił się już nowy interfejs, AGP (accelerated graphics port), stanowiący poważne wyzwanie dla standardu PCI. Chipsety i karty AGP stanowiąjeszcze nowość, co oznacza, że ich ceny są na razie sztucznie zawyżane, oraz, tak jak w przypadku każdej nowej technologii, że wraz z upływem czasu ich możliwości ulegną zwiększeniu. Biorąc pod uwagę obecne aplikacje i systemy operacyjne intensywnie korzystające z grafiki, ewentualna adopcja interfejsu AGP jako standardu wydaje się być wielce prawdopodobna.
» Patrz „AGP (Accelerated Graphics Port)", rozdział 5.
Karta muzyczna i głośniki W przypadku komputera multimedialnego będziesz również potrzebował karty muzycznej i kompletu zewnętrznych głośników. Karta muzyczna powinna być kompatybilna z kartą Sound Blaster - jest to standard w tej dziedzinie. Polecam karty, które mają możliwość rozbudowy pamięci (wykorzystywane są takie same moduły SIMM jak w pamięci głównej). Rozmiar i jakość głośników to sprawa indywidualna.
Wybór karty dźwiękowej zależy głównie od tego, czy jesteś „konsumentem", czy „producentem" komputerowego dźwięku. Jeśli jesteś zainteresowany jedynie w odtwarzaniu plików WAV i uruchamianiu gier i programów multimedialnych, twoja karta nie musi mieć potężnych możliwości, choć prawdopodobnie skorzystasz na lepszej parze głośników. Jeśli, z drugiej strony, masz zamiar tworzyć własne pliki WAV (lub inne pliki dźwiękowe) lub pracować z plikami MIDI, wtedy prawdopodobnie zechcesz kupić lepszą (i droższą) kartę dźwiękową.
Głośniki przeznaczone do użycia z komputerem osobistym należą zarówno do małych, nie zasilanych urządzeń, jak i do potężnych kolumn z własnym wzmacniaczem. Obecnie wielu czołowych producentów zestawów głośnikowych produkuje także głośniki dla komputerów osobistych.
Urządzenia zewnętrzne USB Universal Serial Bus obiecuje, że standardowe porty I/O w komputerze osobistym staną się przestarzałe i niepotrzebne. USB wprowadza standard Plug-and-Play do urządzeń zewnętrznych, umożliwiając podłączenie do 127 urządzeń do pojedynczego portu o przepustowości 12 Mb/s. Zwykle do portu wbudowanego w płytę główną będzie podłączany monitor i klawiatura, zaś inne urządzenia będą podłączane do tych elementów. Wiele z produkowanych obecnie płyt głównych posiada już układy obsługujące USB, ale same urządzenia USB pojawiają się na rynku bardzo powoli. Jeśli chodzi o rodzaje urządzeń
planowanych jako USB, praktycznie nie ma tu żadnych ograniczeń. Modemy, monitory, klawiatury, myszy, napędy CD-ROM, głośniki, joysticki, stacje dysków, napędy taśm, skanery, kamery i drukarki znajdują się już we wszystkich fazach opracowywania i produkcji. Zanim jednak zaczniesz do swojego nowego systemu dokupować wszystkie urządzenia USB, miej na uwadze, że ta technologia jest bardzo młoda i mogą wystąpić duże problemy ze zgodnością pomiędzy urządzeniami.
Wyposażenie dodatkowe Dodatkowo możesz potrzebować kilku drobnych elementów. Przedstawiłem je poniżej.
Radiatory, wentylatory Szybkie procesory wytwarzają dużo ciepła, które musi zostać odprowadzone, gdyż w przeciwnym wypadku grozi to uszkodzeniem procesora. W tym celu stosuje się radiatory. Stosuje się dwa typy radiatorów: pasywne i aktywne.
Radiator pasywny to żebrowany kawałek metalu (zwykle aluminium) przymocowany do procesora. Działa na zasadzie powiększenia powierzchni, przez którą procesor może oddawać ciepło do otoczenia. Ten typ radiatora jest niezawodny ze względu na brak części mechanicznych, które mogłyby się zepsuć. Czasami może zajść konieczność użycia specjalnego smaru lub taśmy w celu wypełnienia szpar pomiędzy radiatorem a procesorem. Polepsza to przekazywanie ciepła z procesora.
Radiator aktywny posiada dodatkowo wentylator. Takie rozwiązanie zapewnia lepsze chłodzenie, ale wymaga zasilania i jest zawodne. Często montowane są tanie wentylatory, które szybko się psują, co grozi przegrzaniem procesora i uszkodzeniem komputera.
Nowsze płyty ATX pracują z pasywnym radiatorem. Do chłodzenia procesora użyty jest jednak także zasilacz, którego wentylator kieruje powietrze wprost na procesor. Dlatego płyty te nie potrzebują dodatkowego wentylatora na radiatorze
System operacyjny Aby móc pracować na komputerze, niezbędny jest system operacyjny, jak DOS, Linux czy Windows. Kupisz go w każdym salonie komputerowym.
Montaż komputera Kiedy już kupiłeś wszystkie części komputera, samo złożenie jest proste. Trzeba po prostu wszystko poskręcać, podłączyć odpowiednie kable i skonfigurować komputer.
Więcej szczegółów na ten temat znajduje się w rozdziale opisującym poszczególne elementy. Na przykład w rozdziale 13. znajdziesz informacje o instalacji i konfigurowaniu napędów dyskietek.
Po złożeniu szybko się okaże, czy komputer pracuje tak, jak się tego spodziewałeś. Podczas montażu musisz być bardzo ostrożny. Rzadko się zdarza, że złożony komputer pracuje od razu bez zarzutu, nawet jeżeli składała go osoba z doświadczeniem. Bardzo łatwo jest zapomnieć o jakiejś zworce, przełączniku czy kablu, co może powodować rozmaite problemy. Często zakłada się wówczas, że jakiś element jest uszkodzony, a problem najczęściej wynika po prostu z błędu w montażu.
Rozdział 21.
Komputery przenośne Komputery przenośne przeżywają ostatnio swój renesans. Rywalizują ze stacjonarnymi wydajnością i nierzadko traktowane są jako podstawowy komputer, zwłaszcza przez użytkowników często podróżujących. W rozdziale tym przedstawimy różne rodzaje przenośnych komputerów oraz rozwiązania zaprojektowane z myślą o tych urządzeniach.
Komputery przenośne są wielkości teczki i, poza rozmiarami, tym się różnią od komputerów stacjonarnych, że wszystkie podzespoły umieszczone są w jednej obudowie. Jedną z pierwszych firm, które zaczęły produkować przenośne komputery, był Compaq, który w latach 80. stworzył pierwszy produkt tego typu, choć rozmiarami, wagą i wyglądem nie przypominał on dzisiejszych komputerów. Jednak na tamte czasy było to osiągnięcie. Składał się on z prawie takich samych elementów co zwykły komputer. Obecnie komputery przenośne korzystają z podzespołów produkowanych specjalnie dla nich.
Komputery mają do spełnienia różne zadania, które wpływają na rozmiar i możliwości danego modelu. Podróżujący użytkownicy mają specyficzne wymagania, a dodatkowa waga i koszt spowodowane dodaniem specyficznych elementów sprawiają, że mało kto kupuje komputer bardziej wydajny, niż potrzebuje.
Typy komputerów przenośnych Wyróżniamy trzy typy komputerów przenośnych: laptopy, notebooki i mininotebooki. Definicje poszczególnych typów nie są ścisłe, a niektóre modele można zaliczyć i do jednego, i do drugiego typu. Różnice występują głównie w rozmiarach i wadze; cechy te wpływają również na możliwości, gdyż im większa obudowa, tym więcej można w niej zmieścić.
Laptopy Laptop jest największym z przenośnych komputerów (patrz rysunek 21.1). Waży ponad 3 kg i ma rozmiary 23 x 30 x 5 cm. Początkowo były to najmniejsze komputery, a obecnie stały się bardzo zaawansowanymi urządzeniami. Posiadają właściwości porównywalne z komputerami stacjonarnymi.
Rysunek 21.1
Laptopy najczęściej albo zastępują komputery stacjonarne, albo pracują jako przenośne komputery multimedialne dla celów prezentacji. Ze względu na wagę są one używane przez sprzedawców i inne osoby podróżujące, dla których są narzędziem pracy. Czasami wykorzystywane są przez inne osoby jako jedyny komputer, nawet jeżeli ich jedyna podróż to droga między domem a pracą. Laptopy posiadają najczęściej duże wyświetlacze, ponad 16 MB pamięci, dysk 2 GB, a także napęd CD-ROM, wbudowane głośniki oraz gniazda do podłączenia zewnętrznego monitora, dysku lub głośników. W przypadku używania laptopa w zastępstwie komputera stacjonarnego można go wyposażyć dodatkowo w stację dekującą, umożliwiającą podłączenie do sieci oraz wykorzystanie zewnętrznego monitora i klawiatury. Dla osób często podróżujących jest to z .pewnością lepsze rozwiązanie niż dwa osobne komputery (stacjonarny i przenośny), na których trzeba synchronizować dane. Oczywiście za taką funkcjonalność trzeba sporo zapłacić. Najnowsze laptopy kosztują w granicach 4-6 tyś. dolarów, czyli około trzykrotnie więcej, niż porównywalny funkcjonalnie komputer stacjonarny. Notebooki są mniejsze, lżejsze i tańsze od laptopów. Ważą od 2 do 3 kg, posiadają mniejsze wyświetlacze, nie mają zaawansowanych funkcji multimedialnych. Niektóre modele mogą jednak posiadać podobne dyski i ilość pamięci jak laptopy, a także napędy CD-ROM i wbudowane głośniki. Notebooki produkowane są jako dodatek do komputerów stacjonarnych, nie mają ich jednak zastępować. Nie są tak imponujące jak laptopy, jednak są równie funkcjonalne w trasie. Posiadają dostępne różne opcje, jako że są przeznaczone dla szerokiej gamy klientów, od zapalonego maniaka, którego nie stać na najnowszego laptopa, po zwykłego użytkownika, który potrzebuje podstawowych funkcji. Ceny notebooków wahają się od 2000 do 4000 dolarów.
Mininotebooki Mininotebooki (określane czasem jako subnotebooki) są znacznie mniejsze zarówno od notebooków, jak i od laptopów. Przeznaczone sadła użytkowników, którzy muszą pracować w drodze oraz łączą się ze swoim biurem. Przy wadze do 2 kg i grubości do 2,5 cm są idealne dla podróżujących nie korzystających z możliwości dużych komputerów przenośnych.
Zwykle nie posiadają wbudowanego napędu dyskietek, choć niektóre modele posiadają zewnętrzne napędy. Nie mają również napędu CD-ROM i innych większych podzespołów. Posiadają jednak duże wyświetlacze, duże dyski i duże -jak na komputer przenośny klawiatury. W świecie elektroniki ceny spadają wraz ze zmniejszaniem się rozmiarów danego urządzenia. Dzieje się tak tylko do pewnego momentu, potem ceny idą w górę. Część mininotebooków przeznaczona jest dla szefów firm, którzy wykorzystują je tylko do poczty elektronicznej i jako terminarze. Są one lekkie i eleganckie. Kosztują jednak około 4000 dolarów. Oczywiście są i tańsze modele.
Specyfika komputerów przenośnych Komputery przenośne z założenia są mniejsze i lżejsze od stacjonarnych. Większość technologii z tych ostatnich jest wykorzystywana również przy tworzeniu modeli przenośnych. 2!/2 calowy dysk twardy, powszechnie używany w komputerach przenośnych, został stworzony w wyniku ogólnej tendencji do zmniejszania rozmiarów twardych dysków. Natomiast pobór mocy i ilość wydzielanego ciepła są problemami, które przyczyniły się do rozwoju nowych technologii specyficznych dla komputerów przenośnych. Komputer zasilany z baterii posiada oczywiste ograniczenia, których nie brali pod uwagę projektanci komputerów stacjonarnych. Co więcej, zapotrzebowanie na dodatkowe wyposażenie, jak napędy CD-ROM czy szybsze procesory, znacznie zwiększyło prądowe zapotrzebowania komputerów. Problem ten został rozwiązany na trzy sposoby: •
Elementy o mniejszym poborze prądu. Zastosowanie specjalnie zaprojektowanych dla komputerów przenośnych elementów o mniejszym poborze prądu, niż w komputerach stacjonarnych.
•
Zwiększenie pojemności baterii. Choć coraz nowsze baterie litowo-jonowe sprawiają, że zasilanie jest stabilne i niezawodne, nie są w stanie zapewnić wystarczającej ilości energii coraz bardziej rozbudowanych komputerów. Zarządzanie poborem mocy. Stosowanie systemów operacyjnych oraz innych narzędzi programowych wyłączających monitory czy dyski, gdy nie są one używane, znacznie przedłuża trwałość baterii. Poważniejszym problemem jest jednak ilość wydzielanego ciepła. Ruchome części komputera, takie jak dyski, wytwarzają poprzez tarcie ciepło, które trzeba jakoś odprowadzić. W komputerach stacjonarnych stosuje się w tym celu wentylatory chłodzące wnętrze komputera.
•
Najgorsze skutki może przynieść przegrzanie procesora. Procesory Intel 486 i Pentium w początkowej fazie produkcji sprawiały problemy nawet w komputerach stacjonarnych. Dlatego też radiatory i wentylatory montowane na procesorach stały się standardem. Ponieważ wymagania użytkowników co do komputerów przenośnych nie są wcale mniejsze od wymagań stawianych komputerom stacjonarnym, układy wytwarzane dla tych komputerów charakteryzują się zarówno podobną prędkością, jak i możliwościami. Jednak ze względu na zapotrzebowanie na energię elektryczną, hałas i dostępną przestrzeń nie montuje się w nich wentylatorów. W celu rozwiązania tego problemu Intel stworzył specjalną linię procesorów o zmniejszonej emisji ciepła. Inne elementy są również tak projektowane, aby wytrzymać specyficzne warunki pracy komputera przenośnego, które są najczęściej bardziej uciążliwe niż w komputerze stacjonarnym.
Rozbudowa i naprawa komputerów przenośnych Obecnie produkowane komputery przenośne mogą być rozbudowywane i naprawiane tak jak modele stacjonarne. Wymiana elementu może być nieraz nawet prostsza ze względu na wykorzystanie modułowych podzespołów dołączanych do komputera za pomocą zatrzaskowych złączy, co eliminuje konieczność korzystania z kabli interfejsu i osobnych przewodów elektrycznych. Dodanie pamięci czy wymiana dysku twardego może trwać zaledwie kilka sekund.
Problemem może być tylko dostępność odpowiednich części. Oprócz kart PC (PC Card), które są wymienialne z definicji, i niektórych dysków, zakup podzespołu nie przeznaczonego dla danego komputera może być ryzykowny. Problem ten najczęściej wynika z faktu, iż producenci komputerów przenośnych upychają potężną maszynę w bardzo małej obudowie i może się zdarzyć, że nowe urządzenie nie będzie pasowało tam, gdzie było zamontowane stare. Szczególnie dotyczy to podzespołów, które muszą być dostępne z zewnątrz, jak napędy CD-ROM i dyskietek. Klawiatury i monitory, najłatwiej wymienialne podzespoły komputera stacjonarnego, są tak zintegrowane z komputerem przenośnym, że praktycznie nie można ich zdemontować. W innym przypadku rozbudowa może być ograniczona przez opcje dostępne w BlOSie. Na przykład producent mógł ograniczyć ilość obsługiwanych dysków w celu zmuszenia klienta do kupienia nowego dysku u niego, a nie w jakiejś innej firmie. Dlatego dobrze jest upewnić się przy zakupie, czy BIOS można uaktualnić oraz czy sprzedawca pobiera opłatę za wymieniane elementy. Najczęściej podzespoły do komputerów przenośnych sprzedawane są z odniesieniem do numeru modelu. W katalogu modułów pamięci przeznaczonych dla komputera stacjo-narneoo są one poukładane według własności układu, takich jak prędkość czy typ. W przypadku komputerów przenośnych będą ułożone według nazw producentów, numerów modeli i ilości pamięci w module. Oczywiście są wyjątki. Możesz kupić laptop i wyposażyć go w dodatkowe elementy różnych producentów. Jednak zapewnienie kompatybilności jest o wiele trudniejsze niż w przypadku komputerów stacjonarnych.
Polecam zakup renomowanego komputera przeznaczonych specjalnie do tego modelu.
przenośnego
oraz
części
Budowa komputera przenośnego Z technicznego punktu widzenia część podzespołów komputera przenośnego jest bardzo podobna do elementów znanych z modelu stacjonarnego, inne zaś różnią się całkowicie. Omówimy je w tym podrozdziale.
Wyświetlacze Najbardziej widoczną różnicą pomiędzy komputerem przenośnym a stacjonarnym jest ekran monitora. Nie ma tu pudła z kineskopem - zostało ono zastąpione przez płaski ekran o grubości kilkunastu milimetrów. Jest to tzw. wyświetlacz ciekłokrystaliczny (LCD - \\quid crystal display). Praktycznie wszystkie komputery przenośne są obecnie wyposażone w wyświetlacz kolorowy, choć dawniej wyświetlacze monochromatyczne były standardem, tak jak to było w przypadku konwencjonalnych monitorów. Wyświetlacz to najczęściej najdroższy element komputera przenośnego, kosztuje on producenta ponad 1000 dolarów. Czasami może bardziej opłacać się wymienić cały komputer, niż wymieniać uszkodzony wyświetlacz. W pierwszych laptopach z kolorowymi wyświetlaczami jakość obrazu była o wiele gorsza niż na standardowym monitorze VGA. Dzisiejsze wyświetlacze są znacznie ulepszone i choć brakuje im trochę do konwencjonalnych monitorów, to jednak nadają się do aplikacji graficznych i wideokonferencji. Wyświetlacz ciekłokrystaliczny jest projektowany do pracy z określoną rozdzielczością. Wynika to z faktu, iż wielkość piksela na ekranie nie może być zmieniona. W konwencjonalnym monitorze sygnał z karty graficznej zmienia rozdzielczość monitora, zmieniając liczbę wyświetlanych pikseli. Przy zmianie rozdzielczości z 640 * 480 na 800 * 600 piksele muszą być mniejsze, aby zmieścić się na tej samej powierzchni ekranu.
Natomiast wyświetlacz ciekłokrystaliczny to siatka o określonej rozdzielczości z tranzystorami sterującymi kolorami wyświetlanymi przez pojedynczy piksel. Ułożenie tranzystorów określa dwa podstawowe typy wyświetlaczy ciekłokrystalicznych: z pasywną i z aktywną matrycą.
Wyświetlacze z pasywną matrycą Wyświetlacze z pasywną matrycą posiadają tranzystory wzdłuż lewego i górnego brzegu ekranu. Ilość tranzystorów określa rozdzielczość ekranu. Każdy piksel jest sterowany przez dwa tranzystory reprezentujące ich współrzędne.
W przypadku uszkodzenia jednego tranzystora cała linia pikseli jest pozbawiona sterowania, co daje ciemną linię na ekranie. Nie pozostaje nic innego, jak wymienić wyświetlacz lub korzystać z niego dalej. Wyświetlacze z pasywną matrycą są czasami nazywane wyświetlaczami z podwójnym przemiataniem (dual scan), ponieważ w danym momencie odświeżany jest obraz tylko na jednej połówce ekranu, co w pewnym stopniu przyspiesza sam proces odświeżania. Wyświetlacze te nie są tak dobre jak wyświetlacze z aktywną matrycą. Są bardziej przyciemnione, ponieważ piksele świecą światłem odbitym (z wnętrza pokoju lub częściej ze źródła spoza ekranu). Są podatne na efekt cienia obrazu, słabo widać obraz na ekranie, patrząc pod kątem, co sprawia, że dwie osoby mają trudności z pracą przy tym samym ekranie. Wyświetlacze te są oczywiście znacznie tańsze od wyświetlaczy z aktywną matrycą. Wymienione wady są szczególnie zauważalne przy pracy z programami graficznymi z dużą ilością kolorów lub przy grach z szybko zmieniającymi się obrazami. Nadają się natomiast nawet do dłuższej pracy z edytorami tekstu, pocztą elektroniczną. Standardowa wielkość ekranu wyświetlaczy z pasywną matrycą wynosi 10" cala; pracują one z rozdzielczością 640 x 480. Dostępne są również wyświetlacze 12,1 cala pracujące z rozdzielczością 800 x 600. Jeśli miałeś okazję korzystać z przenośnego komputera z pasywną matrycą, na pewno dostrzeżesz, jak wiele się zmieniło w tej dziedzinie.
Wyświetlacze z aktywną matrycą Wyświetlacze z aktywną matrycą (znane też jako wyświetlacze TFT - thinfilm trcmsistor) skonstruowane są w taki sposób, że jeden tranzystor steruje jednym pikselem ekranu. Tranzystory są ułożone w siatkę na przewodzącym materiale, każdy z nich jest połączony z sąsiadującymi tranzystorami w pionie i w poziomie. Napięcie podawane jest przez elektrody znajdujące się na obwodzie siatki, tak że każdy piksel sterowany jest niezależnie. Ze względu na to, iż każdy piksel jest niezależnie zasilany, każdy z nich sam generuje światło odpowiedniego koloru, wytwarzając obraz znacznie jaśniejszy niż uzyskiwany na wyświetlaczach z pasywną matrycą. Również większy jest kąt widzenia, co umożliwia kilku użytkownikom jednoczesne patrzenie na ekran, szybciej odświeżany jest obraz, co zapewnia przyjemną pracę nawet w przypadku gier i odtwarzania sekwencji filmowych. Naturalnie, 480000 tranzystorów (w porównaniu z 1400 wyświetlacza z pasywną matrycą) oznacza większe zapotrzebowanie na energię, szybsze wyczerpywanie baterii i wyższy koszt. Często się zdarza, że któryś z tranzystorów psuje się i wtedy sterowany przez niego piksel staje się „martwy". W przeciwieństwie do wyświetlaczy z pasywną matrycą, gdzie uszkodzenie jednego tranzystora powodowało zauważalny efekt, jeden „martwy" piksel
jest znacznie mniej widoczny. Wiele osób uważa jednak (poniekąd słusznie), że kupując komputer za kilka tysięcy dolarów, ma prawo wymagać, by działał on bez zarzutu i nawet z powodu jednego „martwego" piksela zwraca go sprzedawcy. Niektórzy producenci odmawiają jednak przyjęcia komputera z mniejszą niż określona liczbą „martwych" pikseli. Jest to jeszcze jeden problem, jaki powinieneś wyjaśnić przed zakupem komputera przenośnego z aktywną matrycą. W laptopach wyższej klasy standardem jest 12,1-calowy ekran z aktywną matrycą, pracujący z rozdzielczością 800 * 600 lub nawet 1024 * 768. Wiele komputerów posiada karty graficzne PCI z 2 MB pamięci RAM, zapewniające grafikę 16- lub 24-bitową. Wyświetlacze tej klasy zbliżają się do możliwości monitorów i kart graficznych stacjonarnych komputerów. Obecnie wprowadzane są do sprzedaży komputery z wyświetlaczami TFT 13-, a nawet 14-calowymi. W dużych monitorach i kilku modelach komputerów przenośnych użyto innej technologii płaskich ekranów zwanych wyświetlaczami plazmowymi. Zapewniają one jakość obrazu konwencjonalnych monitorów uzyskiwaną na cienkim, płaskim ekranie, wykorzystującym dwie szklane płyty wypełnione mieszanką neonu i ksenonu. Niestety, wymagają one znacznie większej mocy niż wyświetlacze LCD i praktycznie nie stanowią konkurencji dla tradycyjnych komputerów przenośnych.
Rozdzielczość ekranu Rozdzielczość ekranu komputera przenośnego jest ważnym czynnikiem przy podejmowaniu decyzji o zakupie. Jeśli przyzwyczaiłeś się do rozdzielczości 800 x 600 lub 1024 x 768, praca z laptopem o rozdzielczości 640 x 480 będzie bardzo męcząca. Pamiętaj, że o rozdzielczości ekranu LCD decyduje rodzaj ekranu, sterowniki i ilość zainstalowanej pamięci. Niektóre komputery przenośne mogą wyświetlać tzw. ekrany wirtualne, zapewniając rozdzielczość 800 x 600 na ekranie 640 x 480 pikseli. Większy obraz jest przechowywany w pamięci, a na ekranie wyświetlana jest tylko ta część, która mieści się w oknie 640 x 480. Kiedy przesuwasz kursor do krawędzi ekranu, obraz przesuwa się, czyli okno 640 x 480 przesuwa się wewnątrz okna 800 x 600. Trochę trudno się do tego przyzwyczaić. Najgorsze jednak jest to, że niektórzy producenci przedstawiają tego typu wyświetlacze jako pracujące z rozdzielczością 800 x 600, nic nie mówiąc o prawdziwym typie tego wyświetlacza.
Ilość kolorów zależy (podobnie jak w komputerach stacjonarnych) od ilości pamięci grafiki. Komputery przenośne z reguły posiadają karty graficzne na stałe zamontowane w płycie głównej, nie dając możliwości rozbudowy. Dostępnych jest jednak kilka rodzajów kart graficznych typu PC Card, umożliwiających podłączenie do zewnętrznego monitora - w ten sposób można zwiększyć możliwości graficzne posiadanego komputera.
Procesory Podobnie jak w przypadku komputerów stacjonarnych, większość komputerów przenośnych posiada procesory Intela. Produkcja tego typu układów jest jednym z priorytetów w tej firmie. Od początku produkcji procesorów dla komputerów przenośnych istotnym problemem było zapobieganie ich przegrzewaniu się. W przypadku komputerów stacjonarnych jest to problem producentów obudów - mogą oni wykorzystywać wentylatory lub zmieniać ułożenie elementów w celu zapewnienia innego obiegu powietrza, tak aby chłodziło ono procesor, mogą też wyposażyć procesor
w radiator i wentylator. W przenośnych komputerach obudowa nie daje dużego pola manewru. Pozostało więc ulepszanie procesora, zwłaszcza że użytkownicy byli przeciwni np. zmniejszaniu częstotliwości zegara procesora, a przy częstotliwości 133 MHz lub 166 MHz generowana jest znacznie większa ilość ciepła niż przy 75 MHz - częstotliwości pracy zegara procesorów Pentium projektowanych specjalnie dla komputerów przenośnych.
Procesory Pentium Mobile Głównym celem producentów procesorów przeznaczonych dla komputerów przenośnych jest wykonanie ich w jak najmniejszych obudowach oraz takie zoptymalizowanie cykli produkcyjnych, aby działały przy jak najmniejszych napięciach. To oszczędza energię - szczególnie cenną w przypadku korzystania z systemów o ograniczonych jej zasobach. Pentium 200 oraz 233 MHz MMX (nazwa kodowa Tillamook) były pierwszymi procesorami wykonanymi w technologii 0,25 mikrona - używanej dzisiaj w przypadku procesorów Pentium II. W późniejszym czasie Intel przestawił także produkcję procesorów typu Mobile Pentium MMX 166 MHz oraz 266 MHz na tę oszczędną technologię. Zastosowanie tej techniki pozwoliło zredukować napięcie zasilające procesor z 2,25 V do 1,8 V (2,0 V dla procesora 266 MHz) oraz napięcie zewnętrzne procesora z 3,3 V do 2,5 V. Nowsza technologia, 0,25 mikrona, pozwala na przyspieszenie pracy o około 60% przy jednoczesnym zmniejszeniu poboru mocy - do około 53% w porównaniu z procesorem Mobile 166MMX, wykonanym w technologii 0,35 mikrona. Typowy pobór mocy zredukowano więc z około 7,7 W dla procesora 166MMX 0,35 mikrona do około 3,9 W w przypadku nowszego procesora 233MMX 0,25 mikrona. Procesory 166MMX są najwolniejszymi produktami Intela wykonanymi w technologii 0,25 mikrona, a inne jego wersje to najszybsze procesory wykonane w technologii 0,35 mikrona. Gdy zastanawiasz się nad zakupem komputera przenośnego wyposażonego w ten właśnie procesor, wpierw sprawdź, czy jest to jego oszczędniejsza wersja, czy nie. Wolniejsze wersje procesorów MMX 0,35 mikrona to 120, 133 oraz 150 MHz. Szybsze wersje 0,25 mikrona to 200, 233 oraz 266 MHz.
Intel w dalszym ciągu produkuje zwykłe (nie MMX) wersje procesorów Pentium - 75, 100 120 133 oraz 150 MHz dla użytku w tańszych wersjach komputerów przenośnych. One', podobnie jak ich szybsi bracia MMX, także pracują przy zmniejszonych napięciach Zmiany te nie są jednak tak drastyczne. Nap.ęcia zredukowano do 2,9 V (j,l V w przypadku wersji 150 MHz).
Procesory Mobile Pentium II 2 kwietnia 1998 roku Intel zaprezentował pierwsze wersje procesora Pentium II przystosowane do montażu w notebookach. Pracują one z prędkościami 233 oraz 266 MHz. Do ich produkcji użyto technologii 0,25 mikrona. Przy zasilaniu napięciem głównym (rdzenia - córę) 1,7 V i napięciem magistrali (I/O) 1,8 V (czyli jeszcze mniejszym niż ich poprzednicy z rodziny Pentium MMX) zużywają około 8 W mocy. Wersja Pentium II 266 MHz zużywa 8,6 W - czyli wydawałoby się, że dużo więcej w porównaniu z 4 watami procesora Pentium 266MMX. Jednak należy pamiętać, że w strukturę procesora Pentium II jest wbudowany zewnętrzny cache - który w przypadku procesora Pentium MMX musi być elementem płyty głównej. >> Patrz „Pentium II",
Tabela 21.1. przedstawia wersje procesorów Pentium, Pentium MMX oraz Pentium II przeznaczone dla komputerów przenośnych Typ proceso
Prędk ość
Proces produkcyjny
Napi ęcie
Napięcie I/O (V)
Pentium
75
0,35
2,9
3,3
Pentium
100
0,35
2,9
3,3
Pentium
120
0,35
2,9
3,3
Pentium
133
0,35
2,9
3,3
Pentium
150
0,35
3,1
3,3
Pentium/
120
0,35
2,45
3,3
Pentium/
133
0.35
2,45
3,3
Pentium/
150
0,35
2,45
3.3
Pentium/
166
0,35
2,45
3.3
Pentium/
166
0.25
1,8
2.5
Pentium/
200
0,25
1,8
2.5
Pentium/
233
0,25
1,8
2.5
Pentium/
266
0,25
2,0
2.5
Pentium
233
0,25
1,7
1.8
Pentium
266
0,25
1.7
1.8
Partie produktów Intela Tak samo jak w przypadku systemów biurowych, procesory dla komputerów przenośnych ulegają ciągłym modyfikacjom. Są one określane przez tzw. stepping - czyli partie produkcji. Tabele 21.2. i 21.3. zawierają listę modeli procesorów Mobile Pentium oraz Mobile Pentium MMX.
Tabela 21.2. Partie procesorów
Mobile Pentium
Typ
M o
Part ia
Par tia
Prę dko
N u
Komenta rz
0
2
1
Bl
75-
Q
TCP
0
2
2
B3
75-
Q
TCP
0
2
2
B3
75-
S
TCP
0/2
2
4
B5
75-
Q
TCP
0
2
4
B5
75-
S
TCP
0
2
5
C2
75-
Q
TCP
0
2
5
C2
75-
S
TCP
0
2
5
m
75-
Q
VRT.
0
2
5
m
75-
Q
VRT
0
2
5
m
90-
Q
VRT,
0
2
5
m
90-
Q
VRT
0
2
5
m
75-
S
VRT.
0
2
5
m
75-
S
VRT
0
2
5
m
90-
S
VRT,
0
2
5
m
90-
S
VRT
0
2
B
mc
100-
Q
VRT,
0
2
B
mc
120-
Q
VRT.
0
2
B
mc
120-
Q
0
2
B
mc
100-
S
VRT.
0
2
B
mc
120-
S
VRT.
0
2
B
mc
120-
S
VRT,
0
2
B
mc
120-
S
0
7
0
m
75-
Q
VRT.
0
7
0
m
75-
Q
VRT
0
7
0
m
90-
Q
VRT.
0
7
0
m
90-
Q
VRT
0
7
0
m
100-
Q
VRT.
0
7
0
m
100-
Q
VRT
0
7
0
m
75-
S
VRT,
0
7
0
m A4
7550
S K
VRT
Tabela 21.2. Mobile Typ
Model
cd.
Partie
Partia (stepping)
procesorów Partia produkcji
Pent ium Prędkość (MHz)
Numer
Komentarz
0
7
0
m 90-60
SK120
VRT, TCP
0
7
0
m 90-60
SKI23
VRT
0
7
0
m 100-66
SK121
VRT. TCP
0
7
0
m 100-66
SK.124
VRT
0
2
c
mc 100-66
Q0887
VRT. TCP
0
2
c
mc 120-60
Q0879
VRT, TCP
0
2
c
mc 120-60
Q0880
3.1V
0
2
c
mc 133-66
Q0881
VRT, TCP
0
2
c
mc 133-66
Q0882
3. IV
0
2
c
mc 150-60
Q024
VRT, TCP
0
2
c
mc 150-60
Q0906
TCP, 3, IV
0
2
c
mc 150-60
Q040
VRT
0
2
c
mc 75-50
SY056
VRT, TCP
0
2
c
mc 100-66
SY020
VRT. TCP
0
2
c
mc 100-66
SY046
3, IV
0
2
c
mc 120-60
SY021
VRT, TCP
0
2
c
mc 120-60
SY027
3, IV
0
2
c
mc 120-60
SY030
0
2
c
mc 133-66
SY019
VRT, TCP
0
2
c
mcCO
133-66
SY028
3,1V
0
2
c
mcCO
150-60
SY061
VRT, TCP
0
2
c
mcCO
160-60
SY043
TCP. 3. IV
0
2
mcCO
150-60
SY058
VRT
0
2
6
EO
75-50
Q0846
TCP
0
2
6
EO
75-50
SY009
TCP
Tabela 21.3. Typ
Model
ES
c
Partie procesorów Mobile Partia Partia (stepping) produkcji
Pentium MMX Prędkość (MHz)
Numer
Komentarz
0
4
m
15 Q016
ES, TCP. 2.285Y
0
4
m
15 Q061
ES, PPGA. 2,285V
0
4
m
1 Q017
ES. TCP. 2.285Y
0
4
m
1 Q062
EX. PPGA. 2.285Y
0
4
m
15 SL22G
TCP. 2.285Y
0
4
m
15 SL246
PPGA. 2.285Y
0
4
m
16 SL22F
TCP. 2.285Y
0
4
m
16 SL23Z
PPGA. 2.285Y
0
3
m
12 Q230
ES, TCP. 2.2Y
0
3
m
13 Q130
ES, TCP. 2.285Y
0
3
m
13 Q129
ES, PPGA, 2,285V
0
3 mxBl
15 Q116
ES, TCP, 2.285Y
0
3 mxBl
15 Q128
ES. PPGA, 2,285V
0
3
m
16 Q115
ES, TCP, 2.285Y
0
3
m
16 Q127
ES, PPGA. 2.285Y
0
3
m
13 SL27D
TCP. 2.285Y
0
3
m
13 SL27C
PPGA, 2,285V
0
3
m
15 SL26U
TCP, 2,285V
0
3
m
15 SL27B
PPGA, 2,285V
0
3
m
16 SL26T
TCP, 2,285V
0
3
m
16 SL27A
PPGA, 2,285V
0
1
m
16 Q255
TCP, 1,8V
0
1
m
20 Q146
TCP, 1,8V
0
1
m
2 Q147
TCP, 1,8V
0
1
m
2 SL28P
TCP, 1,8V
0
1
m
2 SL28Q
TCP. 1,8V
0
1
m 2 Q260 TCP, 2,OV y 6 Engineertng Sample (próba konstrukcyjna). Układy te nigdy nie :nala:fy się w normalnej sprzedaży - bvfy przeznaczone dla celów testowych.
STP Partia cBljeśt odpowiednikiem partii C2, jednak wykonana jest w innym cyklu produkcyjnym. mcBIjest odpowiednikiem cBl (nie posiada jednak DP, A PIĆ ora- FRC). Partia mcBl, m.41, mA4 i mcCO wykorzystują także technologią VRT (Yoltage Regulation Technology ~ c~yti zmniejszonego napięcia zasilającego) oraz są dostępne w wersjach TCP lub SPCA. mxA3 jest odpowiednikiem xA3 (nie posiada ani DP, ani APIC). Dital Processor - podwójny procesor. Typ O -jedynie pierwszy, 2 -jedynie drugi, 0/2 -pierwszy lub drugi.
rodzaj obudowy procesora - głównie stosowany w systemach przenośnych, rodzaj obudowy Tape Carrier Package -patrz dalej w rozdziale. Plastic Pin Crid Array - także rodzaj obudowy. Yoltage Reduction Technology- technologia redukcji napięcia. wersja Mobile procesora Pentium M MX zasilana napięciem rdzenia od 2,285 do 2,6651' wersja procesora Pentium MMX z napięciem rdzenia od 1,665 do 1,935 l' i - napięciem I/O od 2,375 do 2,625 V. jest to procesor Pentium MMXz napięciem rdzenia od 2,10 do 2,34 V. jest to wersja procesora Mobile Pentium MMX z napięciem rdzenia od 1.850 do 2,150 V i z napięciem I/O od 2,375 do 2,625 V.
Obudowy procesorów Mobile Ciepło, które wydziela się w procesorze, jest wielkim problemem w systemach przenośnych. W komputerach typu desktop o jego odprowadzanie troszczy się odpowiednio skonstruowany układ chłodzenia obudowy. Dodatkowe wentylatory znajdujące się na samym procesorze także pomagają utrzymać jego temperaturę w odpowiednim zakresie. Jednak w przypadku komputerów przenośnych niewiele da się zdziałać odpowiednim zaprojektowaniem obudowy. Tak więc problem spoczął na producencie procesorów.
Metoda TCP (tape carrier packaging) Rozwiązaniem problemu było zastosowanie technologii TCP, w której zmniejszono rozmiary procesora, ilość zużywanej energii i ilość wydzielanego ciepła. Zmniejszono powierzchnię procesora z 49 mm2 w komputerze stacjonarnym do 29mm2, grubość zmniejszono do l mm, a wagę - z 55 do l g.
Zamiast metalowych pinów wkładanych do gniazda w płycie głównej, procesor TCP jest mocowany do trochę większych rozmiarów błony poliamidowej (podobnej do kliszy fotograficznej) w tzw. procesie TAB (tape automated bonding). W ten sam sposób łączy się styki elektryczne wyświetlacza LCD. Błona ta pokrywana jest folią miedzianą, potem jest trawiona, aby stworzyć końcówki, które połączą procesor z płytą główną (patrz rysunek 21.5.). Jest to proces podobny do trawienia płytki drukowanej. Końcówki te są następnie powlekane warstwą złota w celu zabezpieczenia przed korozją, przymocowywane do procesora, a potem na całość nakłada się ochronną żywicę
W zależności od nośnika barw istnieją różne sposoby łączenia kolorów podstawowych. Większość drukarek kolorowych nie potrafi po prostu łączyć ze sobą podstawowych barw atramentów w celu uzyskania końcowego efektu. Zamiast tego, aby otrzymać odpowiedni kolor, drukarka nanosi na papier, w bardzo niewielkiej odległości od siebie punkty odpowiedniego rozmiaru w kolorach podstawowych. Na przykład, drukarka atramentowa tworzy mieszany wzór punktów, w którym każdy punkt jest naniesiony jednym z czterech atramentów. Technika ta jest znana jako drukowanie dwupoziomowe (bilevel printing). Uzyskany kolor końcowy zależy od proporcji pomiędzy punktami każdego koloru oraz od wzoru naniesionych punktów. Proces mieszania różnokolorowych punktów w celu uzyskania innego niż podstawowy koloru jest nazywany rozpraszaniem (dithering). Proces ten jest analogiczny do zastosowanego w kolorowych monitorach, gdzie kolor każdego piksela uzyskuje się wyświetlając blisko siebie odpowiedniej jasności punkty w kolorach podstawowych: czerwonym, zielonym i niebieskim. Dithering nie jest optymalnym sposobem uzyskiwania kolorów. Większość drukarek nie posiada wystarczającej rozdzielczości, by przy uważniejszym przyjrzeniu się nie było widać poszczególnych punktów. Jeśli spojrzysz na wydruk z pewnej odległości, widzisz stały kolor, jeśli jednak przysuniesz go bliżej, wyraźnie widać wzór tworzący barwę. Drukowanie w kolorze pociąga za sobą konieczność rozbudowania języka, którym komputer komunikuje się z drukarką. Początkowo kolor obsługiwany był tylko przez język opisu strony PostScript. Wersja PCL zawierająca rozszerzenia umożliwiające wydruk w kolorze została wydana prze firmę Hewlett Packard w 1994 roku, nazwano ją PCL 5c. Jednak wielu producentów drukarek stworzyło własne technologie, często zmuszając komputer za pomocą sterownika drukarki do przeprowadzania dodatkowych obliczeń podczas przetwarzania strony drukowanej w kolorze. Jakość kolorowego druku uzyskiwana na popularnych drukarkach jest zupełnie wystarczająca w większości przypadków. Natomiast jednym z obszarów zastosowań gdzie jego jakość może nas rozczarować jest drukowanie kolorowych zdjęć. Rozpraszany kolor, akceptowalny w niektórych zastosowaniach, na przykład przy wydruku wykresów słupkowych, może być niewystarczający do drukowania fotografii. Niektóre, względnie tanie drukarki, w celu polepszenia rozdzielczości korzystają nie z czterech, lecz z sześciu atramentów. Jednak w zasadzie do drukowania fotografii o jakości porównywalnej do widywanej na co dzień w czasopismach, niezbędny jest sprzęt o wiele bardziej wyspecjalizowany od standardowych drukarek komputerowych. Graficy komputerowi wykorzystują zazwyczaj standardowe drukarki do wydruków próbnych. W przeszłości graficy często musieli wysyłać plik z rysunkiem do specjalistycznego zakładu drukarskiego tylko po to, by zobaczyć próbny kolorowy wydruk swojej pracy. Obecnie niedroga drukarka kolorowa może znacznie skrócić i uprościć ten proces. W świecie kolorowych wydruków termin „niski koszt" jest względny. Dla profesjonalnego grafika lub projektanta, kosztująca 5000 dolarów kolorowa drukarka laserowa jest bardzo tanią alternatywą wobec niezwykle drogich odbitek próbnych oferowanych w zakładach poligraficznych. Dla zwyczajnego użytkownika komputera mającego znacznie mniejsze wymagania dotyczące jakości kolorów, tania drukarka powinna kosztować ok. 200-300 dolarów.
Drukarki Drukowanie kolorowe ustępuje czarno-białemu pod względem szybkości i ceny. Drukarki kolorowe są zazwyczaj skonstruowane tak, by uzyskiwały jak najlepszą jakość wydruku, nawet jeśli trzeba w zamian za to zmniejszyć prędkość drukowania. Z tego powodu dobrze jest oddzielić od siebie zadania wymagające koloru od tych, które go nie potrzebują. Jeśli wykorzystujesz drukarki atramentowe na przykład w biurze, często lepiej jest mieć osobną drukarkę kolorową, dzięki czemu użytkownicy, którzy chcą wydrukować zwykły dokument, nie muszą czekać na zakończenie drukowania zadań wymagających koloru.
Ceny drukarek kolorowych mogą się wahać od dwustu do wielu tysięcy dolarów, nie mniej istotne sąjednak koszty związane z użytkowaniem urządzenia, z czego nie zdaje sobie sprawy wielu użytkowników. Ludzie przyzwyczajeni do drukarek czarno-białych rzadko zastanawiają się nad ceną atramentu lub tonera do drukarki, czy też papieru, na którym drukują. Jedna kaseta z tonerem do drukarki laserowej najczęściej wystarcza do wydrukowania kilku tysięcy stron. Problemu nie stanowią również kartki, które są dostępne w różnej jakości i po różnych cenach. Drukowanie w kolorze jest często dużo droższe od drukowania czarno-białego. W zależności od technologii, z jakiej korzystają, drukarki kolorowe wymagają specjalnego papieru, który jest dużo droższy od wykorzystywanego w czarno-białych drukarkach. Co gorsza, środek przenoszący kolor, bez względu na to, czy jest to atrament, taśma czy też toner, jest dużo droższy od swego czarno-białego odpowiednika i wystarcza na znacznie mniej wydruków. Koszt wydruku strony zależy od jej zawartości - zajmujące całą stronę zdjęcie zużywa znacznie więcej barwnika niż zwykły tekst z kolorowym obramowaniem - najczęściej jednak cena jednej strony wynosi około 50 centów, czyli o wiele więcej niż w drukarkach czarno-białych. Poniżej zostały omówione najczęściej występujące na rynku komputerów technologie stosowane w drukarkach kolorowych.
Atramentowe drukarki kolorowe Drukarki atramentowe można najłatwiej i najtaniej przystosować do drukowania w kolorze. Prawdę mówiąc, większość drukarek atramentowych znajdujących się na rynku potrafi drukować w kolorze; niewiele jest czarno-białych. Najbardziej typową techniką przystosowania drukarki do druku w kolorze jest zaopatrzenie jej w dwie kasety z atramentem: jedną zawierającą tylko czarny kolor i drugą zawierającą trzy pozostałe. Zaletą tego sposobu jest to, że musisz wymieniać mniej pojedynczych kaset, wadą natomiast, że w razie opróżnienia tylko jednego zbiornika z atramentem, musisz wymieniać całą kasetę, co podnosi koszty utrzymania. Niektóre z drukarek (na przykład kilka modeli HP DeskJet) obsługują również dodatkową, trzykolorową kasetę umieszczaną w miejsce kasety z czarnym atramentem, dzięki czemu możesz drukować korzystając z sześciu barw, co poprawia jakość drukowanych zdjęć. Możliwości drukarek atramentowych są proporcjonalne do ich ceny. Tanie drukarki najczęściej pracują w rozdzielczości 150-300 dpi, wykorzystują tylko kartki o rozmiarze 216><279 mm i drukują około 2-3 stron na minutę. W wyższym przedziale cenowym Po sprawdzeniu procesor jest dostarczany do producenta płyty głównej. Ze względu na technologię instalacji procesory Mobile są niewymienne. Nie ma także możliwości ich uaktualniania. Sam procesor jest pozbawiony jakichkolwiek wentylatorów czy też radiatorów. Jako radiator służy płyta główna, odprowadzająca z procesora nadmiar energii cieplnej. Jedynie niektóre systemy przenośne posiadają układy termostatów regulujących przepływ powietrza chłodzącego wewnątrz obudowy komputera - zapewniających odpowiednią temperaturę pracy. W celu zamontowania procesora na płycie błona jest przycinana, a końcówki zaginane tak, aby można je było przylutować do płyty, procesor zaś spoczywa w pewnej odległości od płyty (patrz rysunek 21.7.). Przed przylutowaniem pomiędzy procesor a płytę kładzie się warstwę termoprzewodzącej pasty. W ten sposób ciepło z procesora przekazywane jest na drugą stronę płyty do radiatora, który oddaje je do otoczenia. Ze względu na to, iż procesory w komputerach przenośnych są lutowane do płyty, najczęściej się ich nie wymienia.
Niektórzy producenci komputerów przenośnych umieszczają jednak w swoich komputerach procesory z modeli stacjonarnych, czasami dodając wentylator. Oprócz tego, że znacznemu skróceniu ulega życie baterii, komputery te bardzo się rozgrzewają. Z tego względu dobrze jest znać dokładny typ procesora, a nie tylko prędkość zegara.
Rysunek 21.7.
Moduł typu Mobile (Mobile Module) Producenci systemów przenośnych mogą nabyć procesory Pentium w modułach i montować owe procesory do swoich płyt głównych samodzielnie. Nie tak dawno Intel przedstawił inny rodzaj procesorów dla systemów przenośnych. Jest to tak zwany Mobile Module lub MMO (rysunek 21.9). Moduł MMO składa się z procesora Pentium lub Pentium II wykonanego w formacie TCP, zamontowanego na małej płytce montażowej wraz z układem zasilającym procesor dostosowanym do jego potrzeb, pamięcią L2 oraz układem North Bridge chipsetu płyty głównej. Wszystko razem tworzy rdzeń komputera - który następnie przyłącza się do płyty głównej zaopatrzonej w układ South Bridge. Pomysł MMO jest bardzo zbliżony do pomysłu zastosowanego w procesorze Pentium II SEC. Umożliwia on teoretycznie zastosowanie odrębnych magistrali dla pamięci cache oraz dla reszty płyty głównej.
Rysunek 21.9.Mobile Pentium w module MMO oraz, obok, procesor TCP (Fotografia opublikowana za zgodą Intel Corporation
Moduł komunikuje się z resztą systemu poprzez 3,3 V szynę PCI, 3,3 V magistralę pamięci oraz poprzez sygnały kontrolne chipsetów - pozwalające na ich wzajemną komunikację. Moduł jest także zaopatrzony w złącze termiczne, pozwalające na odprowadzenie ciepła z modułu do reszty systemu komputerowego. Mocowanie MMO do reszty systemu zapewniają śrubki oraz bolce ustawiające. Wszystko razem zabezpiecza go przed wstrząsami i niebezpieczeństwem odczepienia się od płyty głównej. Wymiary MMO (rysunek 21.10.) to: 101,6 mm długości, 63,5 mm szerokości oraz 8 mm wysokości. Wysokość przy złączu wynosi 10 mm.
Rysunek 21.10. 1ut Intel MMX terający :esor, chipset : cache L2 'ografia blikowana godą Intel Doration)
Mini-Cartridge Moduły MMO komputerów Pentium II są sprzedawane wraz z układem North Bridge chipsetu 440BX. Intel wprowadził jednak ich inną wersję - zwaną minicartridge. Został on skonstruowany z myślą o zastosowaniu w systemach bardzo lekkich, których gabaryty uniemożliwiają zastosowanie modułów MMO. Moduł ten zawiera jedynie rdzeń procesora oraz 512 kB pamięci cache L2 i jest zamknięty w obudowie wykonanej ze stali nierdzewnej. Na zewnątrz wyprowadzone jest jedynie złącze procesora. Wymiary modułu to około 51 x 47 x 4,5 mm. Moduł ten jest 4 razy lżejszy od modułu SEC, jest od niego 6 razy mniejszy i zużywa około 2/3 energii zużywanej przez procesor pracujący w module SEC. Moduł ten posiada 240-stykowe złącze pozwalające na przyłączenie go do płyty głównej. Moduł MMO upraszcza montaż procesorów w systemach przenośnych, gdyż nie jest do tego wymagany specjalny sprzęt. Ma także inną cechę - zmusza producentów do pewnej standaryzacji wewnętrznego rozkładu komputerów przenośnych. Umożliwia także
relatywnie prostą wymianę procesora. IBM zaadoptował technologię MMO w swoich najnowszych komputerach ThinkPad. Umożliwi to zapewne przyspieszenie prac nad wdrożeniem nowych systemów komputerowych - serce komputera - procesor, główny element chipsetu, i pamięć cache są już jednym modułem, który ma standardowe wymiary i złącza. Niestety, w przypadku bardzo niskich komputerów brak miejsca nie pozwala na zastosowanie modułów MMO. I właśnie w produkcji tych komputerów dalej używa się procesorów TCP lub też stosuje się minicartridge.
Chipsety Tak jak na rynku komputerów biurowych, Intel zdominował rynek chipsetów dostosowanych do komputerów przenośnych. Premierze nowszych wersji procesorów Pentium II towarzyszyła premiera chipsetu Mobile 440BX AGPset, odpowiednika BX w komputerach biurowych. Inne chipsety przeznaczone dla komputerów przenośnych to: 430TX PCIset dla procesorów Pentium MMX oraz 430MX PCIset dla procesora Pentium. Generalnie, największą jednak zmianą w porównaniu do systemów biurowych okazało się przeniesienie układu North Bridge do modułu procesora. Komunikuje się on z South Bridge za pomocą standardowej magistrali PCI 3,3 V oraz linii sygnałowych układu 443BX Host Bridge, a z pamięcią za pomocą magistrali pamięci. W dzisiejszych czasach, gdy cykle produkcji procesorów liczy się w miesiącach, a nie latach, aby wycisnąć z nowego procesora wszystko, co potrafi, należy także zaopatrzyć się w płytę główną obsługującą wszystkie jego nowe możliwości. Rynek komputerów przenośnych niczym się nie różni od rynku komputerów biurowych. I tutaj zawsze należy sprawdzić, czy kupowany przez nas chipset potrafi obsłużyć wszystkie nowe udogodnienia wprowadzone w procesorze, gdyż dopiero wtedy system będzie w pełni wydajny.
Pamięc Dodawanie pamięci jest jedną z najpowszechniejszych metod rozbudowy komputera; dotyczy to także komputera przenośnego. Jednak w przeciwieństwie do komputera stacjonarnego, gdzie występują tylko trzy rodzaje gniazd pamięci, tu są dziesiątki specjalnie zaprojektowanych gniazd na potrzeby upakowanych obudów komputerów przenośnych. W niektórych komputerach wykorzystywane są moduły pamięci podobne do układów SIMM i DIMM, inne z kolei używają kart pamięci wyglądem przypominających karty PC Card, które są umieszczane w dedykowanych gniazdach pamięci. Nie należy jednak zbytnio ufać podobieństwom między kartami - nie jest to wiarygodna oznaka kompatybilności. Osobiście polecam instalowanie modułów pamięci przeznaczonych dla danego komputera i w konfiguracji zalecanej przez producenta. Nie oznacza to, że należy kupować pamięć tylko u producenta. Wiele firm produkuje moduły pamięci, opierając się na oryginalnych układach; są one najczęściej dużo tańsze. Wprowadza to konkurencję na rynku, a producenci oryginalnych modułów i tak bardziej zainteresowani są sprzedawaniem komputerów za kilka tysięcy dolarów niż pamięciami za kilkaset. Niektóre firmy wytwarzają moduły pamięci wychodzące poza specyfikację określoną przez twórcę układu, co pozwala na zainstalowanie większej jej ilości, niż przy użyciu oryginalnych układów. Niektórzy producenci, jak IBM, wystawiają certyfikaty uznające dane układy za kompatybilne. Bez tego certyfikatu zawsze istnieje pewne ryzyko, że układ nie będzie działał poprawnie.
Wnętrze modułów pamięci nie różni się wiele od rozwiązań w komputerach stacjonarnych. Komputery przenośne wykorzystują te same typy pamięci DRAM, SRAM oraz EDO. Początkowo komputery przenośne nie zawierały pamięci cache ze względu na dużą ilość ciepła generowanego przez układy SRAM. Rozwój technologii doprowadził do zmniejszenia ilości wytwarzanego ciepła i obecnie większość komputerów przenośnych klasy wyższej posiada pamięć cache SRAM.
Twarde dyski Technologia wytwarzania dysków twardych pozostaje cały czas prawie niezmieniona. Oczywiście nie dotyczy to rozmiarów dysków. Dyski EIDE są praktycznie powszechne w komputerach przenośnych, za wyjątkiem komputerów Macintosh używających dysków SCSI. Wewnętrzne dyski mają średnicę 2'/2" cala i wysokość od 12,5 do 19 mm - w zależności od rozmiarów komputera. Podobnie jak w przypadku pamięci, producenci komputerów używają różnych rozwiązań mocowania dysku, co może stwarzać pewne problemy przy rozbudowie. W niektórych komputerach dysk umieszczany jest w specjalnej obudowie (caddy), zapewniającej połączenie elektryczne i logiczne. Fizyczna wymiana dysku polega wtedy na włożeniu nowego dysku do tej obudowy i przymocowaniu w komputerze. Przy innych rozwiązaniach musisz kupować dyski przeznaczone dokładnie dla danego komputera, posiadające odpowiednie mocowania. Wymiana dysku w niektórych komputerach przenośnych może być prostsza niż w komputerach stacjonarnych. Wielu użytkowników może korzystać z jednego komputera, wymieniając tylko dysk na swój; tę metodę można również wykorzystywać do pracy z różnymi systemami operacyjnymi. Jedną z ważnych rzeczy, o której należy pamiętać przy wymianie twardego dysku, jest sprawdzenie, czy nowy dysk jest obsługiwany przez BIOS. W przypadku starszych komputerów BIOS może mieć ograniczenia co do wielkości współpracujących dysków. Szczególnie dotyczy to komputerów wyprodukowanych przed 1995 rokiem. BIOS obsługiwał tylko dyski o wielkości do 508 MB. Niektóre BlOS-y mają możliwość rozbudowy, co może zapewnić obsługę dodatkowego dysku. Inną metodą dodania przestrzeni dyskowej jest użycie dysku twardego na karcie PC Card. Są to urządzenia o pojemności 450 MB, o bardzo małych rozmiarach (ale za to bardzo drogie), podłączane do gniazda PC Card typu III. Możesz również podłączyć zewnętrzny dysk, wykorzystując adapter PC Card SCSI lub specjalny interfejs umożliwiający podłączenie do portu równoległego. Pozbywasz się wtedy ograniczeń stwarzanych przez wielkość obudowy komputera i masz możliwość podłączenia dysku SCSI dowolnej wielkości, i to bez względu na posiadany BIOS.
Inne urządzenia pamięci zewnętrznej Oprócz dysków, komputery przenośne są również wyposażone w inne urządzenia pamięci masowej, które zapewniają dostęp do dużej ilości danych. W większości notebooków i laptopów dostępne są napędy CD-ROM, w niektórych nawet napędy Zip Iomega. Wszystko to jest możliwe dzięki specyfikacji EIDE, która umożliwia podłączanie różnych urządzeń do interfejsu wykorzystywanego przez dysk twardy. Napędy dyskietek z reguły nie są instalowane w małych mininotebookach. Czasami mogą występować jako urządzenia zewnętrzne. Dla użytkownika może to być bardziej lub mniej uciążliwe. Ci, którzy często podłączają się do sieci, w zasadzie nie potrzebują napędu dyskietek. Napędy dyskietek nie są również potrzebne przy instalacji nowych programów ze względu na istnienie wersji instalacyjnych programów na CD-ROM-ach. Jedną z coraz powszechniejszych cech komputera przenośnego staje się kieszeń na wymienne dyski. Pozwala to na dowolne konfigurowanie komputera w zależności od aktualnych potrzeb. Na przykład w podróży możesz obyć się bez napędu dyskietek i wykorzystać kieszeń do zamontowania dodatkowej baterii lub drugiego dysku.
Standard PC Card W celu zwiększenia możliwości komputerów przenośnych stowarzyszenie PCMCIA (Personal Computer Memory Card International Association) stworzyło kilka standardów kart rozszerzeń (tzw. PC Card) wielkości kart kredytowych, pasujących do małych gniazd komputera przenośnego. Jest to jeden z kilku standardów, które cieszą się dużym poparciem wśród producentów. Standard PC Card stworzony przy współudziale ponad 300 firm (m.in. IBM, Toshiba. Apple) uważany jest za rewolucję w rozwoju komputerów przenośnych. Gniazda PC Card umożliwiają dołączenie dodatkowej pamięci, karty modemowej, adaptera SCSI. karty sieciowej i wielu innych urządzeń. Pełną informację o tym standardzie możesz uzyskać pod adresem: http://www.pccard.com Możliwości technologii PC Card są wprost olbrzymie. Oprócz pamięci i małych twardych dysków można podłączać bezprzewodowe modemy, adaptery ISDN, dekodery MPEG, karty sieciowe, karty muzyczne, kontrolery CD-ROM, a nawet układy systemu GPS wykorzystującego satelity do określenia dokładnego położenia na Ziemi. Pierwotnie stworzony na potrzeby modułów pamięci, dokument PCMCIA określa zarówno stronę sprzętową, jak i programową wykorzystania standardu PC Card. Wersja 1. standardu, zwana typem I, używa kart o wielkości karty kredytowej (8,6 x 5,3 Cm) i grubości 3,3 mm. Standard ten został zmieniony tak, aby mógł obsługiwać dodatkowe funkcje. Trzecia wersja standardu określa trzy typy kart; jedyną różnicą pomiędzy nimi jest grubość karty, co wynika z różnych ich zastosowań. Większość kart PC Card to karty typu II (modemowe, sieciowe), o grubości 5 mm. Karty typu III o grubości 10,5 mm są najczęściej wykorzystywane z twardymi dyskami. Wszystkie karty są kompatybilne wstecz, tzn. karty typu I można używać w gniazdach typu II i III. Standardowa konfiguracja kart PC Card w komputerze to dwa gniazda typu II, jedno nad drugim. Dzięki takiemu rozwiązaniu można też włożyć jedną kartę typu III podłączoną do jednego gniazda, ale zasłaniającą drugie. Dostępne są również karty PC Card typu IV, jeszcze grubsze niż karty typu III, zaprojektowane z myślą o pojemnych dyskach twardych. Nie są one jednak zgodne ze standardem PCMCIA, nie ma więc gwarancji kompatybilności. Lepiej więc ich unikać. Najnowsza wersja standardu, opublikowana w marcu 1997 roku, obejmuje wiele nowych cech mających na celu zwiększenie wydajności tego interfejsu. Są to: *
obsługa DMA;
*
praca z napięciem 3,3 V;
*
obsługa standardu zarządzania zużyciem energii APM;
*
obsługa standardu Ping and Play;
*
zgodność ze standardem PC Card ATA, co umożliwia producentom wykorzystanie protokołów A T Attachment przy podłączaniu dysków PC Card;
* obsługa kart wielofunkcyjnych (np. modem + karta sieciowa); * obsługa interfejsu graficznego Zoomed Video -jest to bezpośrednie połączenie pomiędzy złączem PC Card a kontrolerem VGA; umożliwia podłączenie monitora o dużej częstotliwości odświeżania do aplikacji typu wideokonferencja lub dekoderów MPEG;
*
system kontroli temperatury ostrzegający użytkownika przed przegrzaniem procesora;
* 32-bitowy interfejs CardBus pracujący z częstotliwością 33 MHz, który łączy procesor z układami wejścia/wyjścia i pamięcią. Posiada on ekranowane złącze uniemożliwiające podłączenie urządzeń CardBus niezgodnych z ostatnią wersją standardu. Obecnie dostępne są już pierwsze karty sieciowe PC Card zgodne ze standardem CardBus, produkowane m.in. przez firmę 3Com. Standard ten zapewnia prędkość porównywalną ze standardem PCI w komputerach stacjonarnych. Karta PC Card umieszczona jest w solidnej metalowej obudowie; od strony komputera zakończona jest interfejsem PCMCIA, z drugiej zaś znajduje się złącze, do którego można podłączyć linię telefoniczną, sieć komputerową lub inne urządzenie zewnętrzne. Układ pinów interfejsu PC Card pokazuj e tabela 21.5. Tabela 21.5. Układ pinów interfejsu PCMCIA
Nu mer 1
Nazwa sygnału
Nu mer
Nazwa sygnału
Masa
35
Masa
2
Data 3
36
- Card Detect 1
3
Data 4
37
Data 1 1
4
Data 5
38
Data 12
5
Data 6
39
Data 13
6
Data 7
40
Data 14
7
- Card Enable 1
41
Data 15
8
Address 10
42
- Card Enable 2
9
- Output Enable
43
Refresh
10
Address 1 1
44
RFU (- IOR)
11
Address 9
45
RFU (- IOW)
12
Address 8
46
Address 17
13
Address 13
47
Address 18
14
Address 14
48
Address 19
15
- Write Enable / -
49
Address 20
16
Ready / - Busy
50
Address 2 1
cd. na następnej stronie
Tabela 21.5.
cd. Ukladpinów interfejsu
PCMC IA
Numer
Nazwa sygnału
Nume
Nazwa sygnału
17
+5 V
51
+5 V
18
Vppl
52
Vpp2
19
Address 16
53
Address 22
20
Address 1 5
54
Address 23
21
Address 12
55
Address 24
22
Address 7
56
Address 25
23
Address 6
57
RFU
24
Address 5
58
RESET
25
Address 4
59
-WA1T
26
Address 3
60
RFU (- INPACK)
27
Address 2
61
- Register Select
28
Address 1
62
Battery Yoltage Detect 2 (-
29
Address 0
63
30
DataO
64
Battery Yoltage Detect 1 (STSCHG) Data 8
31
Data 1
65
Data 9
32
Data 2
66
Data 10
33
WriteProtect(-
67
- Card Detect 2
34
Masa
68
Masa
Oprogramowanie kart PC Card Karty PC Card mogą być wyjmowane z gniazda i wymieniane na inne bez konieczności resetowania komputera. Jeśli posiadasz urządzenia PC Card oraz system operacyjny zgodny ze standardem Pług and Play, włożenie nowej karty spowoduje automatyczną instalację właściwego sterownika danego urządzenia. Aby to było możliwe, konieczne są dwie warstwy oprogramowania zapewniające interfejs pomiędzy adapterem PCMCIA (sterującym gniazdami kart) i aplikacjami korzystającymi z usług urządzeń PC Card (patrz rysunek 21.12.). Te dwie warstwy noszą nazwy Socket Services i Card Services. Trzecia, moduł programowy, zapewnia właściwą konfigurację kartom PCMCIA.
Socket Services Adapter PCMCIA, stanowiący interfejs pomiędzy gniazdami karty a resztą komputera, jest jedną z niewielu części nie standaryzowanych. Ze względu na dużą ilość dostępnych adapterów przeznaczonych dla komputerów przenośnych, programy i systemy operacyjne nie są w stanie bezpośrednio adresować gniazd w taki sposób, jak to czynią w przypadku portów równoległych i szeregowych. Właśnie w tym celu stworzono tzw. Socket Seroices - programową warstwę odpowiedzialną za adresowanie adapterów PCMCIA. Warstwa ta oddziela adapter od systemu operacyjnego; sposób komunikacji pomiędzy sterownikiem a adapterem może być unikalny, ale drugi interfejs, łączący sterownik warstwy Socket Seroices i oprogramowanie Card Seroices, jest ściśle określony w standardzie PCMCIA. Warstwa Socket Services może mieć formę sterownika, programu rezydentnego uruchamianego z linii komend DOS-a (lub w pliku AUTOEXEC.BAT) lub usługi systemu Windows 95 lub Windows NT. Możliwe jest również, że komputer posiada gniazda PC Card z różnymi adapterami, jak w przypadku stacji dekujących dostarczających dodatkowych gniazd. Należy wtedy załadować kilka sterowników warstwy Socket Services wszystkie będą komunikowały się z tym samym programem warstwy Card Services.
Card Senrices Oprogramowanie warstwy Card Seroices komunikuje się z warstwą Socket Semices i jest odpowiedzialne za przypisanie odpowiedniego urządzenia danej karcie PC Card. Karta ta niczym nie różni się od innych kart rozszerzeń: musi mieć przypisane odpowiednie przerwanie, port wejścia/wyjścia i adres pamięci. Nie trzeba jednak konfigurować tych parametrów ręcznie za pomocą zworek lub programowo, jak to ma miejsce przy kartach ISA. Wprawdzie standard PCMCIA dalej wymaga, aby wymienione parametry były różne dla różnych urządzeń, jednak warstwa Card Semices zapewnia odpowiednie przypisania w momencie zainstalowania karty. Jeśli na przykład posiadasz komputer z dwoma gniazdami PC Card, oprogramowanie
warstwy Card Sewices zapewni przypisanie dwóch przerwań, dwóch portów wejścia/wyjścia i dwóch adresów pamięci, i to niezależnie od tego, czy karty te znajdowały się w swoich gniazdach w momencie uruchamiania komputera. Żadne inne karty zainstalowane w tym komputerze nie będą miały przerwania przypisanego już zainstalowanym kartom. Podczas instalacji karty warstwa Card Services przypisuje takie wartości parametrów, aby były one unikalne.
Działanie warstwy Card Services przypomina standard Plug and Play, ale to nie jest to samo. W Windows 95 warstwa Card Services przypisuje odpowiednie wartości parametrom, wykorzystując standard Plug and Play. W innych systemach operacyjnych parametry mogą być uzyskiwane z pliku tekstowego lub poprzez przełącznik w linii komend. W systemach niezgodnych ze standardem Plug and Play konfiguracja przebiega podobnie jak w przypadku kart ISA. I choć warstwa CardSevices nie pozwoli na przypisanie jednakowych przerwań dwóm kartom PC Card, standard PCMCIA nie ma zabezpieczenia konfliktów między urządzeniami korzystającymi z usług warstwy CardSewices a innymi urządzeniami.
W komputerze może działać kilka sterowników warstwy Socket Services, ale wszystkie będą korzystały z jednej warstwy Card Sewices. Sterowniki te muszą być załadowane przed programem warstwy Card Services.
Moduł programowy (enabler) Jedna z najogólniejszych reguł konfiguracji komputera mówi, że konfiguracja programowa musi odpowiadać sprzętowej. Na przykład jeżeli karta sieciowa używa przerwania IRQ10, to sterownik tej karty również musi używać tego przerwania, aby mógł się z nią komunikować. Może być to trochę mylące, gdyż obecnie większości urządzeń nie konfigu-ruje się za pomocą zworek i przełączników, ale korzystając z programów konfiguracyjnych.
Warstwy Socket Services i CardServices nie umożliwiają sprzętowej konfiguracji kart PC Card. Zadanie to wykonuje moduł programowy zwany enabler. Otrzymuje on z warstwy CardServices wartości parametrów i komunikując się z kartą PC Card, konfiguruje ją.
Podobnie jak warstwa Socket Services, moduł programowy musi być tak zaprojektowany, aby rozpoznawał umieszczone w gnieździe karty PC Card. Najczęściej jest to uniwersalny moduł programowy (generic enabler), tzn. umożliwiający adresowanie różnych typów kart. Oznacza to, że po włożeniu nowej karty zostanie ona rozpoznana i programowo skonfigurowana.
Głównym problemem architektury PCMCIA jest stosunkowo duże zapotrzebowanie na pamięć. Ze względu na konieczność współpracy z różnymi kartami uniwersalny moduł programowy potrzebuje ponad 50 kB pamięci; wymagane jest też dodatkowe 50 kB na warstwy CardServices i Socket Services. Jest to dużo jak dla uruchomienia jednego czy dwóch urządzeń, szczególnie przy pracy w DOS-ie, zwłaszcza że po zainstalowaniu
urządzenia PC Card mogą wymagać dodatkowej pamięci.
Zalecanym systemem do współpracy z urządzeniami PC Card jest Windows 9x. Ze względu na zaawansowane zarządzanie pamięcią, możliwości Plug and Play i zawarte w systemie operacyjnym warstwy Card Services i Socket Services, zainstalowanie karty PC Card polega tylko na włożeniu jej do gniazda.
W systemie Windows NT 4.0 wpierw należy zamknąć system, a dopiero potem zmienić kartę. Co więcej - niemałą przeszkodą może się okazać trudność odnalezienia odpowiednich sterowników dla tego systemu. W przypadku braku pamięci można, zamiast uniwersalnego modułu programowego, użyć dedykowanego (specific enabler). Ponieważ współpracuje on z określonym typem karty PC Card, potrzebuje znacznie mniej pamięci. Niektóre karty są dostarczane wraz z dedykowanym modułem programowym; można go wykorzystać także w przypadku, gdy uniwersalny moduł nie współpracuje z kartą PC Card.
Innym rozwiązaniem jest zastosowanie modułu programowego point enabler. Zapewnia on bezpośrednie adresowanie, eliminując warstwy CardServices i Socket Services. Niestety, używając tego modułu, pozbawiamy się możliwości wkładania kart podczas pracy komputera oraz automatycznego ich rozpoznawania i konfigurowania. Jeśli nie jest to dla Ciebie najważniejsze, to używając modułu programowego point enabler, zaoszczędzisz dużo pamięci.
Klawiatury Komputery przenośne, w przeciwieństwie do stacjonarnych, posiadają zintegrowane klawiatury. Komplikuje to ich wymianę i naprawę. Producenci zostali zmuszeni do zmiany układu standardowej klawiatury ze 101 klawiszami, tak aby zmieściła się w małej obudowie. W pierwszym kroku została odrzucona część numeryczna. Umieszczono ją w części alfanumerycznej; uruchamia sieją, naciskając klawisz funkcyjny. Klawisz ten to dodatkowy przycisk spotykany w wielu komputerach - służy on do uruchamiania różnych dodatkowych funkcji.
Większość komputerów posiada klawiatury zbliżone kształtem i funkcjonalnością do modeli stacjonarnych. Jest to duży postęp w stosunku do starszych modeli, których klawiatury były tak małe, że pisanie dwoma rękami było bardzo niewygodne.
Niektóre komputery posiadają zmniejszone klawisze funkcyjne, a jednym z ubocznych efektów większych ekranów jest większa ilość miejsca na klawiaturę. Jest to oczywiście wykorzystywane przez producentów.
Urządzenia wskazujące Podobnie jak układ klawiatury, również wybór urządzenia wskazującego zależy od indywidualnych preferencji. Większość komputerów przenośnych zawiera jedno z wymienionych poniżej urządzeń (patrz rysunek 21.13.). * Trackball. Jest to kulka o średnicy około 15 mm umieszczona na klawiaturze, zwykle pod klawiszem spacji. Jest to stosunkowo dokładne urządzenie, jednak straciło popularność ze względu na zbieranie się dużych ilości brudu i kurzu w otworze kulki, co powodowało zacinanie się jej.
* Trackpoint. Jest to mała kulka (pomysł firmy IBM zaadoptowany przez innych producentów) o średnicy około 6 mm pokryta gumą i umieszczona między klawiszami G, H, B. W celu przesunięcia kursora na ekranie musisz nacisnąć ją
Rysunek 21.13
w określonym kierunku. Urządzenie jest bardzo wygodne ze względu na to. że nie trzeba odrywać rąk od klawiatury. Guma pokrywająca kulkę w starszych modelach szybko się zużywała, a jej wymiana z niewyjaśnionych przyczyn była niemożliwa. Nowe wersje posiadają kulki z trwalszych materiałów. *
Trackpad. Jest to najnowsze rozwiązanie z wymienianych. Trackpad to elektromagnetycznie czuły obszar o wielkości około 2.5 x 5 cm. reagujący na ruch\ palca po powierzchni. Kliknięcia myszka zostały zastąpione stuknięciem palca. Są one jednak bardzo czule na przypadkowe dotknięcia powodujące przesunięcia kursora oraz na niepożądane kliknięcia. Podatne są również na wilgoć i wilgotne palce.
Ważnym elementem urządzenia wskazującego jest lokalizacja przycisków. Niektóre posiadają je w miejscach wymagających nienaturalnych ruchów do przeprowadzenia
operacji „kliknij i przeciągnij". Dlatego zalecam przetestowanie urządzenia przed zakupem, a jako alternatywa zawsze pozostaje dołączenie zewnętrznej myszki.
Akumulatory Akumulatory to najczęstszy powód narzekań użytkowników komputerów przenośnych. Chociaż wiele zrobiono w celu poprawy zarządzania zużyciem energii, to jednak w tym samym czasie nastąpiła też duża zmiana w konfiguracji sprzętowej komputerów. W przeciągu ostatnich dwóch lat ilość dostępnej energii zwiększyła się dwukrotnie, ale i zapotrzebowanie komputerów wzrosło dwukrotnie ze względu na zastosowanie szybszych procesorów czy napędów CD-ROM.
Celem dla wielu użytkowników systemów przenośnych jest posiadanie komputera w pełni funkcjonalnego, którego baterie wystarczą na transkontynentalny przelot samolotem. Niestety, wydaje się, że nie jesteśmy nawet o krok bliżsi temu celowi, niż byliśmy kilka lat temu. Użytkownicy nadal muszą korzystać z kilku kompletów akumulatorów podczas tego typu podróży. I mimo produkowania coraz doskonalszych źródeł energii, każde dodatkowe jej zasoby są skutecznie zjadane przez coraz to nowsze procesory i dyski twarde. I jak się okazało - konsumenci wolą systemy z kolorowymi ekranami, wyposażone w duże dyski twarde i dużo pamięci RAM, pracujące 2 do 3 godzin, od systemów pracujących 6-10 godzin, ale nie dysponujących tego typu luksusami.
Rodzaje akumulatorów Jednym z głównych czynników decydujących o długotrwałości pracy systemu przenośnego są stosowane akumulatory. Większość współczesnych systemów korzysta z następujących ich typów:
* Nikhwo-kadmowe (NiCd). Jest to najstarsza z czterech przedstawionych technologii. W dzisiejszych czasach rzadko stosowana ze względu na małą pojemność i czułość na nieodpowiednie ładowanie i rozładowanie. Pojemność akumulatorów tego typu można zmniejszyć nawet o 40% poprzez jednorazowe naładowanie, gdy bateria uprzednio nie była do końca rozładowana. Można zapobiec tego typu uszkodzeniom poprzez rozładowywanie akumulatora co pewien czas aż do osiągnięcia wartości napięcia mniejszej niż l V (ogniwo NiCd ma nominalne napięcie około 1,2 V - przyp. tłum.). Zjawisko to określa się jako „efekt pamięciowy". Nieużywane akumulatory niklowo-kadmowe tracą około 10% swego ładunku w czasie pierwszych 24 godzin po naładowaniu i około 10% na każdy miesiąc nieużywania. Ich cykl ładowania/rozładowania to około 1500 razy.
* Niklowo-metalowo--hybrydowe (NiMH). Droższe od NiCd, akumulatory NiMH oferują o około 30% większą pojemność, są mniej czułe na efekt pamięci i nie zawierają szkodliwych dla środowiska związków metali ciężkich (kadmu). Mają jednak mniejszy dopuszczalny prąd rozładowania (jedna piąta do jednej drugiej ładunku określonego w amperogodzinach) oraz stopień samorozłado-wania około 2 razy większy niż baterie NiCd. Ich cykl pracy jest także krótszy i wynosi około 500
rozładowań. Ładowanie ich zajmuje około 2 razy więcej czasu. Ich sprzedaż ogranicza się w tej chwili raczej do tańszych systemów komputerowych.
Litowo-jonowe (Li-ion). Są one w dzisiejszych czasach standardowym wyposażeniem komputerów przenośnych. Akumulatory te są trwalsze i pojemniejsze zarówno od NiCd, jak i NiMH. Nie można ich przeładować i utrzymują ładunek nawet, gdy nie są używane. Akumulatory produkowane na bazie litu - najlżejszego ze znanych metali, posiadającego najwyższy potencjał elektrochemiczny i zapewniającego największą koncentrację energii były produkowane od lat siedemdziesiątych. Jednak jego wada - przede wszystkim niestabilność pierwiastka - powodowała sporadyczne wybuchy i zwroty dużych ilości tego typu akumulatorów na początku lat dziewięćdziesiątych. Następne modele były zbudowane nie w oparciu o czysty lit, a o jego związki - na przykład związki dwutlenku kobaltu z litem LiCoO2. Akumulatory litowo-kobaltowe posiadają ciut mniejszą pojemność od czystych litowych, jednak są od nich dużo bezpieczniejsze. Ujemna elektroda w tych akumulatorach może być wykonana z różnych związków chemicznych. Zastosowanie każdego z nich powoduje inną charakterystykę ładowania i rozładowania baterii. Jednak ze względu na elektryczne różnice niemożliwe jest zastosowanie akumulatorów litowojonowych w systemach przystosowanych do pracy z akumulatorami niklowo-kadmowymi czy hybrydowymi. Zalety tych akumulatorów sprawiły, że stały się one w tej chwili częścią podstawowego wyposażenia praktycznie wszystkich komputerów przenośnych.
* Litowo-jonowo-polimerowe. Jest to czwarty typ akumulatorów, który został zaprezentowany w ostatnich latach, ale dopiero teraz ukazuje się na rynku. Do ich produkcji używa się ogniw litowo-jonowych z elektrodą ujemną zbudowaną z tlenku kobaltu oraz elektrolitem ze specjalnych polimerów. Można budować akumulatory tego typu o praktycznie dowolnych kształtach - na przykład w postaci płytek o grubości l mm. Z tego względu możliwe jest wbudowanie takiego akumulatora na przykład pod ekranem ciekłokrystalicznym notebooka. Ich pojemność jest około 4 razy większa od pojemności standardowych akumulatorów NiCd, a długość ładowania około 40% dłuższa niż w przypadku akumulatorów litowo-jonowych, przy pięć razy mniejszej masie. Cykl ich pracy to około 500 ładowań i są nieczułe na efekt pamięciowy. Gdy ich produkcja ruszy na dobre, akumulatory tego typu mają duże szansę wyprzeć stosowane dzisiaj, nieporęczne baterie akumulatorowe.
Wszystkie stosowane w dzisiejszych czasach akumulatory pracują najlepiej, gdy przed naładowaniem są całkowicie rozładowane. Dotyczy to w najmniejszym stopniu akumulatorów litowo-jonowych. Posiadają wyższy potencjał końcowy - około 2,5-3 V (w porównaniu z l V w akumulatorach NiCd), jednak i one ulegają efektowi pamięciowemu. Dobrze jest baterie chłodzić - szczególnie wtedy, gdy przechowuje się je w stanie naładowanym. Przed umieszczeniem ich w komputerze należy zawsze pozwolić im ogrzać się do temperatury pokojowej. Zapobiega to kondensacji pary wodnej, dokuczliwej szczególnie w wilgotniejszych i cieplejszych środowiskach.
Niestety, kupno komputera zasilanego akumulatorami litowo-jonowymi wcale nie oznacza możliwości dłuższej pracy bez ich ładowania. Zużycie energii zależy przecież od ele-
mentów zainstalowanych w komputerze, programu zarządzającego zużyciem energii i od pojemności akumulatora. Niektórzy producenci, przestawiając się z akumulatorów niklowo-metalowych na litowo-jonowe, korzystają z możliwości oszczędzenia pewnej przestrzeni we wnętrzu komputera przy tej samej wydajności.
Również rozwój technologiczny akumulatorów pozostaje w tyle za rozwojem innych podzespołów. Zapotrzebowanie na energię w komputerach przenośnych w ostatnich latach wzrosło w tak dużym stopniu, że systemy zasilania ledwie mogą im sprostać. W wysokiej klasy laptopach dwugodzinny czas pracy uważany jest za bardzo dobry i to przy uruchomionym systemie zarządzania zużyciem energii.
Jedną z metod zwiększenia czasu pracy jest projektowanie komputerów przystosowanych do korzystania z kilku akumulatorów. Wprowadzenie wielofunkcyjnych kieszeni umożliwia użytkownikowi zamianę napędu dyskietek lub napędu CD-ROM na dodatkowy komplet akumulatorów, dwukrotnie wydłużając czas pracy.
Zarządzanie zużyciem energii Przy włączonym zasilaniu nie wszystkie podzespoły muszą pracować. Opierając się na aktywności użytkownika, systemy zarządzania zużyciem energii przedłużają czas pracy komputera poprzez odłączenie napięcia rzadko wykorzystywanym podzespołom. Na przykład jeśli pracujesz ze zbiorem tekstowym, to przy otwarciu pliku został on wczytany do pamięci i nie ma potrzeby, aby twardy dysk dalej się obracał.
Po pewnym czasie braku aktywności system zarządzania zużyciem energii może zatrzymać wirowanie dysku i zaparkować głowice aż do momentu zapamiętania pliku lub innej komendy wymagającej do niego dostępu.
Większość komputerów przenośnych posiada kilka trybów zawieszających pracę całego komputera w przypadku braku aktywności użytkownika. Noszą one różne nazwy, ale główne dwa charakteryzują się tym, że jeden podtrzymuje zasilanie pamięci RAM, a drugi nie. Tryb zwany „zawieszonym" wyłącza prawie cały komputer oprócz pamięci. Zużycie energii jest wtedy bardzo małe, a komputer uzyskuje stan pełnej gotowości prawie natychmiast po ponownym uaktywnieniu.
Drugi tryb to tzw. „hibernacja" - następuje wyłączenie całego komputera oraz skasowanie pamięci po wcześniejszym zapisaniu jej zawartości do specjalnego pliku. Po powrocie do stanu pracy zawartość tego pliku jest z powrotem wczytywana do pamięci. Trwa to trochę dłużej niż w przypadku „zawieszenia", ale oszczędność energii jest większa.
W niektórych komputerach tymczasowy plik, do którego zapisywana jest zawartość pamięci przy przejściu w stan „hibernacji", znajduje się na specjalnej partycji dysku
przeznaczonej do tego celu. Jeżeli niechcący skasujesz tę partycję, będziesz musiał użyć specjalnego programu do jej odtworzenia.
Funkcje te określa standard APM (Advanced Power Management) stworzony przez firmy Intel i Microsoft. Definiuje on interfejs pomiędzy sterownikiem systemu operacyjnego odpowiedzialnym za zarządzanie zużyciem energii a specjalnym programem umożliwiającym to zarządzanie. Interfejs ten jest najczęściej ukryty w BlOS-ie.
Mimo ciągłego rozwoju technologii coraz trudniej zarządzać zużyciem energii z poziomu BIOS-u. Dlatego też firmy Intel, Microsoft i Toshiba stworzyły nowy standard, zwany ACPI (Advanced Conflguration and Power Interface), umieszczając funkcje zarządzania zużyciem energii w systemie operacyjnym.
Takie rozwiązanie umożliwia lepszą współpracę z programami. Program może na przykład wskazać systemowi operacyjnemu, które zadania wymagają natychmiastowego dostępu do dysku, a które mogą zostać zrealizowane przy innej okazji.
Ddatkowe wyposażenie Do komputera przenośnego można podłączać całą gamę różnych urządzeń, które ze względów praktycznych i ekonomicznych nie są w nim umieszczone. Opiszemy teraz właśnie tego typu urządzenia.
Zewnętrzne monitory Wysokiej klasy laptopy często używane są do celów prezentacyjnych, a jeżeli widownia składa się z dużej liczby osób, wskazane jest powiększenie wyświetlacza. Większość komputerów posiada standardowe gniazdo VGA umożliwiające podłączenie zewnętrznego monitora.
Użytkownik najczęściej ma możliwość wyboru, czy chce korzystać z wyświetlacza, czy z zewnętrznego monitora, czy może z obu - odbywa się to za pomocą wciśnięcia odpowiedniej kombinacji klawiszy lub poprzez ustawienia w BlOS-ie. W zależności od posiadanej karty graficznej możesz uzyskać lepszą rozdzielczość na zewnętrznym monitorze niż na wyświetlaczu LCD.
Tam gdzie standardowy monitor nie wystarcza, można posłużyć się innymi rozwiązaniami. Zostaną one opisane poniżej.
Panele ciekłokrystaliczne Panel ciekłokrystaliczny wygląda jak wyświetlacz w komputerze, nie posiada jednak tylnej ścianki, co czyni go przezroczystym. W panelach wykorzystuje się wyświetlacze z
aktywną matrycą.
Panel ciekłokrystaliczny umieszcza się na zwykłym rzutniku, tak że obraz z panelu wyświetlany jest na ścianie lub ekranie. Systemy takie projektowane sanie tylko z przeznaczeniem dla komputerów przenośnych, dlatego też dostarczane są razem z kablami umożliwiającymi podłączenie zarówno do standardowego monitora, jak i panela. Panele nadają się do przeprowadzania szkoleń, jednak ze względu na małą głębię i nasycenie kolorów nie są atrakcyjne przy większych prezentacjach. Jakość obrazu zależy także od jasności lampy rzutnika. Panel jest z reguły mały i lekki, a rzutnik najczęściej nie. Jeśli w miejscu prezentacji jest dostępny rzutnik, panel ciekłokrystaliczny jest dobrym sposobem na powiększenie ekranu. Jeśli jednak musisz sam dostarczyć rzutnik, lepszym rozwiązaniem jest rzutnik z wbudowanym ekranem ciekłokrystalicznym. Panele nie są wcale tanie, najczęściej są droższe od komputera. Niektóre modele komputerów ThinkPad firmy IBM pozwalają na zdjęcie górnej pokrywy i wykorzystanie jej jako panelu.
Rzutnik ciekłokrystaliczny Rzutnik ciekłokrystaliczny to połączenie panelu i projektora. Podłącza się go do gniazda VGA w komputerze, często posiada też głośniki podłączane za pomocą osobnego kabla. Ze względu na rozmiary nie wszystkie rzutniki można nazwać przenośnymi. A modele przenośne różnią się wagą, technologią wykonania wyświetlacza i jasnością lampy mierzoną w lumenach.
Rzutnik o jasności 300-400 lumenów z powodzeniem wystarcza dla sali konferencyjnej; większe pomieszczenia wymagają większej jasności lampy - około 500 lumenów. Rzutniki ciekłokrystaliczne dają obraz dużo lepszej jakości niż panele. Kosztują jednak znacznie więcej - od 4000 do 10000 dolarów. Jeśli prezentacje są nieodłączną częścią twojej działalności, może to być wydatek usprawiedliwiony.
Gniazdo telewizyjne Jednym z rozwiązań stosowanych w wysokiej klasy laptopach jest możliwość podłączenia do komputera odbiornika telewizyjnego. Gniazdo telewizyjne może obsługiwać różne standardy: amerykański NTSC lub europejski PAL, albo obydwa. Po podłączeniu regulację obrazu przeprowadza się przy pomocy specjalnego oprogramowania.
Gniazdo telewizyjne staje się obecnie popularnym dodatkiem do wysokiej klasy kart graficznych, zarówno przeznaczonych dla komputerów stacjonarnych, jak i przenośnych. Niektórzy producenci wytwarzają również specjalne urządzenia, które można podłączać do portu VGA w komputerze i do telewizora z drugiej strony. Urządzenie to przetwarza cyfrowy sygnał VGA na analogowy sygnał telewizyjny, odpowiadający standardowi NTSC lub PAL. Gniazdo telewizyjne jest bardzo wygodnym rozwiązaniem. Ponieważ wielkość obrazu jest ograniczona tylko rodzajem dostępnego telewizora, nie trzeba kupować dodatkowego
urządzenia i prezenter nie musi go dźwigać (no, chyba że ma przynieść swój telewizoi na prezentację). Korzystając z tego gniazda, można również nagrać prezentację na taśmie wideo. Jako że rozdzielczość telewizora jest znacznie mniejsza od monitora komputerowego, jakość nagranego obrazu nie będzie najlepsza. Jest to szczególnie widoczne przy obrazach zawierających dużo tekstu. Dlatego polecam przed wykonaniem prezentacji z użyciem telewizora przetestować różne wielkości odbiorników.
Stacje dokujące Obecnie, kiedy komputery przenośne sprzedawane są jako zamienniki do komputerów stacjonarnych, dużą popularność zyskują tzw. stacje dokujące. Stacja dekująca to komputer stacjonarny, do którego podłączasz komputer przenośny, gdy jesteś w biurze lub domu. Stacja dokująca zapewnia zasilanie, klawiaturę normalnych rozmiarów, myszkę, komplet portów wejściowych i wyjściowych i gniazdo VGA do podłączenia standardowego monitora.
Po podłączeniu klawiatura i wyświetlacz komputera przenośnego zostają zablokowane, ale inne podzespoły, jak procesor, pamięć i dysk, pozostają aktywne. Pracujesz więc na tym samym komputerze, używając interfejsów komputera stacjonarnego. Stacja dokująca może zawierać również inne urządzenia, m.in. kartę sieciową, zewnętrzne głośniki, dodatkowy dysk lub napęd CD-ROM, gniazda kart PC Card i ładowarkę do baterii.
System operacyjny Windows 95 ma możliwość stworzenia kilku profili sprzętowych. Profil sprzętowy to konfiguracja zawierająca ustawienia urządzeń dostępnych dla systemu. Można więc stworzyć jeden profil do pracy tylko z komputerem przenośnym, a drugi do pracy ze stacją dokująca.
Wykorzystanie stacji dekującej eliminuje konieczność używania dwóch oddzielnych komputerów. Nie musisz dwukrotnie instalować programów i synchronizować danych. Wykonuje się to najczęściej poprzez sieć lub łącząc komputery kablem pomiędzy portami szeregowymi lub równoległymi. Korzystając ze stacji dekującej i odpowiednio wyposażonego komputera przenośnego, możesz uzyskać to, co najlepsze w tych komputerach.
Stacje dokujące są przeznaczone dla ściśle określonych modeli komputerów. Ceny różnią się w zależności od zawartości; gdy nie posiadają procesora, pamięci, monitora, cena może być przyzwoita.
Łączność Głównym przeznaczeniem komputera przenośnego jest utrzymywanie kontaktu z macierzystym biurem podczas podróży. Ż tego względu wiele hoteli, lotnisk umożliwia dostęp do gniazdek telefonicznych służących do podłączenia modemu, lecz nadal jest wiele miejsc, w których podłączenie do linii telefonicznej może być trudne. Dostępne są jednak urządzenia, które pozwalają na ominięcie tych problemów nawet w czasie podróży
międzykontynentalnych.
Testery Wiele hoteli posiada cyfrowe linie telefoniczne PBX, które charakteryzują się większym prądem niż standardowe linie telefoniczne, w celu obsługi dodatkowych funkcji samych telefonów, np. wyświetlaczy ciekłokrystalicznych. Większy prąd może jednak uszkodzić modem. Należy bardzo na to uważać, gdyż wykorzystywany jest tu ten sam standard wtyczek RJ-11, co przy tradycyjnej linii telefonicznej. Aby uniknąć tego problemu, polecam nabycie testera (za 50 dolarów), który podłącza się do gniazdka telefonicznego i mierzy wielkość prądu. Poinformuje Cię on, czy gniazdko jest bezpieczne, czy nie.
Połączenie akustyczne W sytuacji, gdy nie możesz podłączyć modemu do gniazdka telefonicznego lub gniazdko nie jest dostępne - jak w przypadku budki telefonicznej, ostatnią deską ratunku jest użycie połączenia akustycznego. Wykorzystujemy do tego celu sprzęgacz akustyczny (acoustic coupler), które z jednej strony podłączamy do gniazda RJ-11 modemu, a z drugiej przykładamy do słuchawki: głośnik do dolnej części, a mikrofon do górnej części słuchawki - pozwoli to na wzajemne przekazywanie sygnałów akustycznych między modemem a linią telefoniczną.
Powyższa metoda pozwoli Ci na podłączenie modemu do dowolnej linii telefonicznej bez zwracania uwagi na międzynarodowe standardy, prąd w linii i ilość kabli.
Rozdział 22.
Programowe i sprzętowe narzędzia diagnostyczne Oprogramowanie diagnostyczne, traktowane jako drugorzędne, gdy Twój komputer działa sprawnie, staje się czymś niezbędnym za każdym razem, gdy komputer ulega uszkodzeniu, gdy zaczynasz aktualizować część systemu czy też dodajesz nowe urządzenie. Rozwiązywanie problemów powodujących nieprawidłowości w działaniu systemu czy też jego zawieszanie się, gdy pracujesz, wymaga większej ilości informacji o komputerze od tych, których możesz się dowiedzieć, czytając informacje dostarczane przez producenta przy zakupie. Oprogramowanie diagnostyczne jest bramą, poprzez którą możesz sprawdzić Twój komputer, a także działanie jego poszczególnych podzespołów. W rozdziale tym opisane są trzy poziomy oprogramowania diagnostycznego (POST, systemowe oraz zaawansowane) dołączonego do Twojego komputera lub dostępnego u producenta. W rozdziale opisane jest też, jak możesz zdobyć większość tego oprogramowania. Opisane są także szczegóły kodów dźwiękowych IBM oraz jego kody błędów, które są podobne do kodów błędów używanych przez większość producentów. Jest tu także opisane oprogramowanie diagnostyczne.
Oprogramowanie diagnostyczne Dla komputerów kompatybilnych z PC są dostępne różne typy programów diagnostycznych. Oprogramowanie to, czasami dołączane do kupowanych komputerów, towarzyszy użytkownikowi przy rozpoznawaniu wielu problemów mogących wystąpić w układach komputera. W wielu przypadkach programy te są w stanie wykonać większość pracy polegającej na rozpoznaniu, który z elementów komputera jest wadliwy. Są trzy rodzaje programów mogących pomóc Ci rozpoznać zaistniały problem; każdy z nich jest bardziej kompleksowy i ma więcej możliwości od swego poprzednika. Oto ich lista: * POST (Power-ON Self Test). Test ten uruchamiany jest zawsze po włączeniu (lub zresetowaniu) komputera. + Oprogramowanie diagnostyczne producenta komputerów. Wielu największych producentów - a szczególnie najbardziej zaawansowanych technicznie, wyznaczających standardy jakości, jak na przykład IBM, Compaą, Hewlett Packard i inni - tworzy specjalne oprogramowanie diagnostyczne przeznaczone w szczególności dla ich własnych komputerów. To tworzone przez producenta oprogramowanie zazwyczaj bazuje na zestawie testów gruntownie sprawdzających komputer. Oprogramowanie diagnostyczne IBM-a znajduje się na dyskietce „Reference disk" dla komputerów PS/2 lub na dyskietce „Advanced diagnostics disk" dla innych modeli. Zarówno Compaq, jak i Hewlett Packard tworzą także własne programy diagnostyczne używane później przez techników przy rozwiązywaniu problemów z komputerami. W niektórych przypadkach programy diagnostyczne mogą zostać skopiowane z ich stron WWW lub też kupione u producenta. Niektórzy sprzedawcy komputerów kompatybilnych z
PC, jak na przykład Gateway czy Dell, dołączają okrojone wersje jednego z pakietów diagnostycznych dostępnych na rynku, dostosowane do ich komputerów. Czasem oprogramowanie diagnostyczne zostaje zainstalowane na oddzielnej partycji dysku twardego, do której można uzyskać dostęp podczas uruchamiania się komputera. Dla producenta Twojego komputera jest to bardzo dobry sposób na upewnienie się, że zawsze masz dostęp do narzędzi diagnostycznych. * Oprogramowanie diagnostyczne poszczególnych urządzeń. Wiele urządzeń dodatkowych jest zaopatrzonych we własne programy testujące. Jest tak na przykład w przypadku kontrolerów SCSI firmy Adaptec. Ich własny BIOS zawiera procedury testujące, które można uruchomić odpowiednimi kombinacjami klawiszy przy starcie komputera. * Oprogramowanie diagnostyczne systemu operacyjnego. Systemy operacyjne, jak Windows 95 oraz Windows NT, posiadają szereg programów służących do diagnozowania i testowania sprzętu, na którym są uruchomione. * Oprogramowanie diagnostyczne producentów niezależnych. Na rynku istnieje wielu twórców oprogramowania diagnostycznego dla komputerów zgodnych z PC. Są to narzędzia takie, jak Norton Utilities firmy Symantec, Microscopy stworzone przez Micro 2000, Qa-plus Diagsoftu, PC Technican stworzone przez Windsor Technologies i inne, umożliwiające szczegółową diagnostykę każdego komputera kompatybilnego z PC. W niniejszym rozdziale wspomniane jest także oprogramowanie wielu innych firm. Wielu operatorów komputerów do rozwiązywania problemów używa programów producentów niezależnych oraz testów POST. Programy diagnostyczne producentów komputerów mogą być kosztowne, ale najczęściej są też kompletne i działają dobrze na komputerach, dla których zostały przeznaczone.
Test przy włączaniu (POST) Gdy IBM w 1981 roku rozpoczął sprzedaż komputerów PC, nadał im nie istniejące wcześniej cechy zwiększające bezpieczeństwo działania. Tymi cechami były POST oraz pamięć ze sprawdzaniem parzystości. Cecha sprawdzania parzystości pamięci została omówiona w rozdziale 7. „Pamięć komputera". W niniejszym rozdziale zostaną podane szczegółowe informacje o POST -serii programów zapisanych w układach BIOS-u płyty głównej, testujących zaraz po włączeniu komputera wszystkie jego główne składniki. Programy te powodują pewne opóźnienie przy uruchamianiu komputerów kompatybilnych z IBM; POST jest wykonywany przed wczytaniem przez komputer systemu operacyjnego.
Co jest testowane Zawsze, gdy włączasz komputer, przeprowadza on serię testów, które sprawdzaj ą j ego najważniejsze urządzenia. Testowana jest pamięć, CPU, ROM, płyta główna, a także ważne urządzenia peryferyjne (jak na przykład gniazda rozszerzeń). Testy te są bardzo krótkie i niezbyt dokładne w porównaniu do testów przeprowadzanych przez programy diagnostyczne wczytywane z dysku. POST generuje komunikat błędu lub ostrzeżenie, jeśli tylko napotka nieprawidłowo funkcjonującą część komputera. Pomimo iż diagnostyka wykonywana przez POST nie zawsze jest bardzo dokładna, stanowi ona jednak pierwszą linię obrony, szczególnie przy rozwiązywaniu poważniejszych problemów z płytą główną. Jeśli POST napotka problem wystarczająco poważny, by spowodować nieprawidłowe działanie systemu, zatrzymuje uruchamianie się komputera i generuje komunikat o błędzie, który często prowadzi Cię prosto do źródła problemu. Czasem rozpoznany przez POST problem
okazuje się błędem krytycznym. Testy POST-u zazwyczaj dostarczają jednego z trzech typów komunikatów wyjściowych: kodu dźwiękowego, komunikatu widocznego na ekranie lub heksadecymalnego numeru w jednym z portów I/O (wejścia/wyjścia) komputera.
Dźwiękowe kody błędów POST Dźwiękowe kody błędów generowane przez POST to najczęściej kilka sygnałów dźwiękowych, których ilość, długość i kolejność wystąpienia umożliwia zlokalizowanie uszkodzonego elementu. Jeśli Twój komputer działa poprawnie, usłyszysz jeden krótki sygnał przy jego uruchamianiu się. Jeśli został wykryty jakiś problem, usłyszysz różną liczbę dźwięków - czasem jako kombinację krótkich i długich sygnałów. Te, zależne od BIOS-u, kody mogą różnić się od siebie w zależności od producenta BIOS-u. Tabela 22. l. opisuje dźwiękowe kody błędów stosowane przez IBM, a także ich znaczenie.
Tabela 22.1 Kod dźwięko
Kod w porcie 80h
3-1-3
2
Błąd nadrzędnego rejestru przerwania
3-1-4
2
Błąd podrzędnego rejestru przerwania
Brak
2
Trwa ustawianie wektora przerwania
3-2-4
2
Błąd kontrolera klawiatury
Brak
2
Trwa sprawdzanie zasilania i sumy kontrolnej CMOS
Brak
2
Trwa kontrola poprawności konfiguracji ekranu
3-3-4
2
Błąd inicjacji ekranu
3-4-1
2
Błąd odświeżania ekranu
3-4-2
2
Trwa poszukiwanie ROM-u karty graficznej
Brak
2
Obraz nadzorowany przez ROM karty graficznej
Brak
3
Obraz dostępny
Brak
3
Monitor monochromatyczny dostępny
Brak
3
Monitor kolorowy (40 kolumn) dostępny
Brak
3
Monitor kolorowy (80 kolumn) dostępny
Tabela 22.4. Kod dźwięko
N blady pfyty ie Kod w porcie 80h P'S
4-2-1
3
Trwa test przerwania zegara lub zakończył się niepomyślnie
4-2-2
3
Trwa test wyłączenia lub zakończył się niepomyślnie
4-2-3
3
Błąd bramki A20
4-2-4
3
Nieoczekiwane przerwanie w trybie chronionym
4-3-1
3
Trwa test RAM lub błąd adresu > FFFFh
4-3-3
3
Trwa test kanału 2. zegara lub zakończył się niepomyślnie
4-3-4
3
Trwa test funkcji daty w zegarze lub zakończ}'! się niepomyślnie
4-4-!
3
Trwa test portu szeregowego lub zakończył się niepomyślnie
4-4-2
3
Trwa test portu równoległego lub zakończył się niepomyślnie
4-4-3
3
Trwa test koprocesora lub zakończył się niepomyślnie
Opis
Ciche 1-
4
Błąd wyboru płyty głównej
Ciche 1-
4
Błąd rozszerzonej pamięci CMOS
Wizualne kody błędów generowane przez POST W komputerach typu XT, AT, PS/2 i większości kompatybilnych POST wyświetla również na ekranie monitora test pamięci. Numer wyświetlony jako ostatni oznacza całkowitą ilość przetestowanej pamięci. Na przykład, nowoczesny komputer może wyświetlić: 32768 OK W większości przypadków liczba wyświetlana przez test pamięci powinna zgadzać się z całkowitą ilością pamięci zainstalowanej na płycie głównej Twojego komputera wraz z pamięcią podstawową i rozszerzoną. Niektóre komputery wyświetlają nieznacznie mniejszą jej ilość, ponieważ odejmują całość lub część 384 kB UMA (obszaru pamięci wyższej) z ogólnego bilansu pamięci. RAM na karcie rozszerzającej pamięć typu EMS (expanded) nie jest testowany przez POST i nie zwiększa ilości pamięci pokazywanej przez licznik. Jeśli jednak używasz sterownika pamięci EMS, jak na przykład EMM386.EXE lub QEMM Quarterdecka, by skonfigurować zainstalowaną na Twojej płycie głównej pamięć rozszerzoną typu XMS (extended) jako EMS, test POST będzie wykonywny przed zainstalowaniem sterownika, czyli na liczniku będzie wykazana cała dostępna w systemie pamięć. Jeśli test pamięci wykonywany przez POST wykaże jej niewiele mniej od oczekiwanej ilości, wyświetlana liczba może wskazać, jak daleko od końca pamięci systemowej występuje jej błąd. Już sam ten numer jest czasem cenną wskazówką przy usuwaniu problemów z pamięcią. Jeśli podczas wykonywania testu POST wystąpi błąd, na ekranie pojawi się komunikat o nim. Komunikaty te najczęściej są podawane w postaci kodu numerycznego obejmującego kilka cyfr, na przykład: 1790-Disk O Error Informacja ta jest przydatna przy korzystaniu z dokumentacji sprzętowej, dzięki której często daje się rozpoznać uszkodzoną część.
Kody generowane przez POST w portach I/O Mniej znaną właściwością POST-u jest to, że przed rozpoczęciem każdego z testów BIOS wysyła do ściśle określonego portu l/O kod testu. Te kody mogą zostać odczytane tylko przez specjalną kartę włożoną w gniazdo rozszerzeń. Pierwotnie karty te były tworzone z myślą o testach wytrzymałościowych płyt głównych, przeprowadzanych przez producenta sprzętu, dzięki czemu eliminowano konieczność użycia karty graficznej i monitora. Wielu producentów umożliwia obecnie korzystanie z tych kart przez techników. Micro 2000, JDR Microdevices, Data Depot, Ultra-X, Quarterdeck oraz Trinitech to tylko kilku spośród wielu producentów kart zdolnych odczytać komunikaty POST-u. Oto kilka adresów WWW, pod którymi można dowiedzieć się czegoś więcej o niektórych kartach potrafiących odczytać komunikaty generowane przez POST. Pierwszy z nich prowadzi na stronę Micro 2000, drugi do JDR Microdevices, sprzedających dużą liczbę specjalistycznych urządzeń elektronicznych, końcowy zaś jest skrótem do informacji o karcie PHD 16, która potrafi odczytać komunikaty POST-u. http://scab.co.za/dion/micro2.htm
http://www.jdr.com http://www.merriweb.com.au/cblock/phd!6.html Gdy jedna T. tych kart jest włożona do gniazda rozszerzeń, podczas testów POST na wyświetlaczu karty pojawiają się dwucyfrowe, heksadecymalne numery. Jeśli system nieoczekiwanie przestanie działać poprawnie, możesz po prostu spojrzeć na dwie cyfry wyświetlone na karcie, by ujrzeć kod identyfikujący rozpoczęty, a nieukończony test Ten krok najczęściej pozwala na identyfikację uszkodzonego elementu komputera. Większość spośród BIOS-ów będących na rynku przy płytach głównych z szyną ISA lub EISA kieruje kody błędów POST na adres portu 80h. Komputery produkowane przez Compaą kierują kody błędów do portu 84h. Komputery IBM PS/2 z szyną ISA. jak na przykład modele 25 i 30, wysyłają kody błędów do portu 90h. Niektóre z komputerów z szyną EISA wysyłają kody do portu 300h (większość z nich wysyła je także do portu 80h). Wszystkie modele IBM z szyną MCA wysyłają kody błędów do portu 680h. Wiele kart odczytuje tylko port 80h. Ten adres portu jest najczęściej używany i działa poprawnie w większości sytuacji, ale karty korzystające tylko z niego nie będą działać w komputerach produkowanych przez Compaą, w niektórych spośród komputerów posiadających szynę EISA, a także w komputerach IBM PS/2. Karty POST zaprojektowane specjalnie dla szyny MCA komputerów PS/2 firmy IBM odczytują tylko adres portu 680h i w związku z rym nie mogą być używane przy testowaniu komputerów wyposażonych w szynę ISA i EISA. Ponieważ adresów portów jest tak wiele, przed zakupem karty POST powinieneś upewnić się, czy odczytuje ona niezbędny dla Ciebie adres. Dwoma z najbardziej znanych typów kart POST są karty wkładane do ośmiobitowego gniazda rozszerzeń, będącego częścią szyny ISA i EISA, oraz karty wkładane do gniazda rozszerzeń MCA. Niektórzy z producentów oferują oba typy kart POST -jeden dla szyn ISA i EISA, drugi dla szyn MCA. Micro 2000 i Data Depot nie oferują osobnej karty dla szyny MCA, lecz przejściówkę umożliwiającą przystosowanie ich kart ISA do działania z szyną danych MCA równie dobrze, jak z szyną ISA czy EISA. Większość innych producentów oferuje jedynie karty przystosowane do portów ISA i EISA, ignorując szynę MCA.
Programy diagnostyczne IBM Komputery IBM najczęściej posiadają dwa poziomy oprogramowania diagnostycznego. Pierwszym z nich są łatwe w obsłudze programy diagnostyczne ogólnego użytku, drugim - zaawansowane programy diagnostyczne przeznaczone dla techników, w niektórych przypadkach zupełnie niezrozumiałe dla zwykłego użytkownika. Zazwyczaj oba te programy dołączane są za darmo przy zakupie komputera, czasem jednak muszą być kupowane oddzielnie. Ponieważ w większości współczesnych komputerów procedury rozwiązywania błędów są dość proste, większość ludzi nie ma problemów w posługiwaniu się programami diagnostycznymi bez jakiejkolwiek oficjalnej dokumentacji. IBM uruchomił BBS, z którego można skopiować całość jego zarówno podstawowych, jak i zaawansowanych narzędzi diagnostycznych.
Zaawansowane programy diagnostyczne IBM Jako dodatek do programów diagnostycznych przeznaczonych dla techników, IBM sprzedaje podręczniki konserwacji sprzętu oraz serwisu dla każdego z komputerów, do którego była dołączona dyskietka „Advanced Diagnostics". Na dyskietce tej zapisane są programy diagnostyczne, które w połączeniu z oferowanymi podręcznikami de facto stanowią standard programów diagnostycznych dla komputerów IBM i kompatybilnych. Dla modelu PS/2 IBM umieścił zaawansowane oprogramowanie diagnostyczne na dyskietce „Reference Disk" otrzymywanej razem z komputerem; pomimo to instrukcje użytkowania tego oprogramowania nadal można znaleźć osobno, w podręcznikach serwisu. Jeśli potrzebujesz kopii zaawansowanych narzędzi diagnostycznych dla któregokolwiek z komputerów IBM, sprawdź BBS tej firmy. Narzędzia diagnostyczne dla komputerów
IBM są tam dostępne bez jakichkolwiek dodatkowych opłat. Programy te umieszczone są w formacie skompresowanych obrazów dysków, do ich dekompresji na dyskietki będziesz potrzebował jednego z dwóch programów użytkowych. By dowiedzieć się, który z nich jest Ci potrzebny, wystarczy zastosować się do poleceń widocznych na ekranie. Zaawansowane programy diagnostyczne wyświetlają komunikaty błędów w postaci numerów, których możesz użyć do identyfikacji źródła, a także rozległości problemu. Numery poszczególnych kodów błędów są takie same jak generowane przez POST czy też programy diagnostyczne ogólnego użytku. Oznacza to, że te same numery mogą być stosowane w odniesieniu do wszystkich programów diagnostycznych IBM. W tej części książki opisana jest większość znanych kodów błędów oraz zaawansowanych programów diagnostycznych. IBM stale dodaje nowe kody błędów, w miarę pojawiania się na rynku nowego sprzętu.
Użytkowanie zaawansowanych programów diagnostycznych IBM Jeśli posiadasz komputer PS/2 IBM z szyną MCA (Micro Channel Architecture) (są to komputery produkowane później od modeli 25-40), być może posiadasz już zaawansowane programy diagnostyczne IBM, nawet jeśli o tym nie wiesz. Programy diagnostyczne najczęściej są ukryte na dyskietce „Reference Disk" dostarczanej wraz z komputerami PS/2. Aby do nich dotrzeć, uruchom komputer z tej dyskietki. Po pojawieniu się głównego menu naciśnij Ctrl+A (by uruchomić opcje Advanced). Program przejdzie do menu zaawansowanej diagnostyki. W niektórych komputerach PS/2 zaawansowane programy diagnostyczne były wystarczająco duże, by wymagać dodatkowej dyskietki, czasem nawet więcej niż jednej. Wszystkie wymienione programy możesz zgrać z BBS-u firmy IBM.
Sprawdzanie kodów błędów Większość kodów błędów generowanych przez POST, a także podstawowe i zaawansowane oprogramowanie diagnostyczne są przedstawiane za pomocą numeru urządzenia, poprzedzonego dwiema cyframi innymi niż 00. Pokazywanie przez test numeru urządzenia i numeru 00, oznacza że test został ukończony bezbłędnie. Poniższa lista jest kompilacją wielu źródeł, łączącą dokumentację techniczną, serwisową, a także dokumentację producenta. W każdym z trzycyfrowych numerów pierwsza liczba oznacza urządzenie. Pozostałe dwie stanowią dokładny opis problemu. Na przykfad numer 7xx oznacza koprocesor matematyczny. Wyświetlenie 700 oznacza, że wszystko jest w porządku. Jakikolwiek inny numer (z zakresu 701 do 799) oznacza uszkodzenie lub nieprawidłowe działanie koprocesora. Dwie ostatnie cyfry (od 01 do 99) wyjaśniają, co jest uszkodzone. W tabeli 22.5. wypisane zostały podstawowe kody błędów wraz z ich opisem. Tabela 22.5. Podstawowe kody błędów Kod
Opis l xx
Błędy płyty głównej
2xx
Błędy pamięci (RAM)
3xx
Błędy klawiatury
4xx
Błędy karty graficznej MDA (Monochrome Displa\ Adapter)
4xx
Błędy portu szeregowego płyty głównej komputerów PS/2
5x'x
Błędy karty graficznej CGA (Color Graphics Adapter)
6xx
Błędy stacji dysków/kontrolera
7xx
Błędy koprocesora matematycznego
l Oxx
Błędy portu równoległego drukarki
l lxx
Błędy podstawowej komunikacji asynchronicznej (port szeregowy COM1:)
12xx
Błędy drugorzędnej komunikacji asynchronicznej (porty szeregowe COM2:COM3:orazCOM4:)
13xx
Błędy portu kontrolerów gier
14xx
Błędy matrycy drukarki
15xx
Błędy kontrolera komunikacji SDLC (Synchronous Data Link Control)
16xx
Błędy kontrolera DSEA (Display Station Emulation Adapter) (5520, 525x)
17xx
Błędy kontrolera i dysku stałego ST-506/412
18xx
Błędy jednostki rozszerzeń I/O
19xx
Błędy karty rozszerzeń PC 3270
20xx
Błędy kontrolera BSC (Binar\ S\nchronotis Communication)
21 xx
Błędy zastępczego kontrolera BSC
Tabela 22.5. cd. Podstawowe kody błędów Opis
Kod 22xx
Błędy kontrolera grup
23xx
Błędy kontrolera wyświetlacza plazmowego
24xx
Błędy karty graficznej EGA (Enhanced Graphics Adapter)
24xx
Błędy karty graficznej VGA (Video Graphics Array) komputerów PS/2
25xx
Błędy zastępczej karty graficznej EGA
26xx
Błędy kontrolera XT lub AT/370 370-M (pamięć) oraz 370-P (procesor)
27xx
Błędy kontrolera XT lub AT/370 3277-EM (emulacja)
28xx
Błędy kontrolera emulacji 3278/79 lub kontrolera połączeń 3270
29xx
Błędy koloru/grafiki drukarki
30xx
Błędy nadrzędnej karty sieciowej PC
31 xx
Błędy podrzędnej karty sieciowej PC
32xx
Błędy 3270 PC lub wyświetlania AT i kontrolera programowalnych symboli
33xx
Błędy gęstości drukowania
35xx
Błędy emulacji rozszerzonego kontrolera obrazu (EDSEA)
36xx
Błędy kontrolera szyny GPIB (General Purpose Interface Bus)
38xx
Błędy kontrolera otrzymywania danych
39xx
Błędy karty graficznej PGA (Professional Graphics Adapter)
44xx
Błędy jednostki dołączania obrazu 5278 i ekranu 5279
45xx
Błędy interfejsu IEEE (IEEE-488)
46xx
Błąd kontrolera czasu rzeczywistego (A Real-Time Interface Coprocessor) (Multiport/2)
48xx
Wewnętrzne błędy modemu
49xx
Wewnętrzne błędy modemu dodatkowego
50xx
Błędy LCD komputerów przenośnych
51 xx
Błędy drukarki przenośnej
koprocesora
ARTIC
56xx
Błędy komunikacji finansowej
70xx
Unikatowe kody błędu BlOS-u/układów Phoenixa
71xx
Błędy kontrolera komunikacji głosowej VCA (Voice Communication Adapter)
73xx
Błędy zewnętrznej stacji 31/2"
74xx
Błędy karty graficznej VGA komputerów IBM PS/2
74xx
Błędy karty graficznej 8514/A
76xx
Błędy kontrolera drukowania strony cd. na następnej stroi
Tabela 22.5. cd. Podstawowe kody błędów Kod
Opis 84xx
Błędy kontrolera dźwięku komputerów PS/2
85xx
Błędy kontrolera pamięci XMA 2 MB lub kontrolera pamięci rozszerzonej EMS/A
86xx
Błędy urządzenia wskazującego komputera PS/2 (mysz)
89xx
Błędy kontrolera MIDI (Musical Instrument Digital Interface)
91xx
Błędy sterownika/stacji IBM 3363
096xxxx
Błędy kontrolera SCSI z pamięcią cache (32-bitową)
100xx
Błędy kontrolera wieloprotokołowego /A
101 xx
Błędy modemu wewnętrznego 300/1200 bps /A
104xx
Błędy kontrolera lub dysku stałego ESDI
107xx
Błędy kontrolera lub stacji zewnętrznej 51/2"
112xxxx
Błędy kontrolera SCSI (16-bitowego, bez pamięci cache)
113xxxx
Błędy kontrolera SCSI (16-bitowego, umieszczonego na płycie głównej)
129xx
Błędy procesora modelu 70 IBM, typu 3 (25 MHz) płyty głównej
149xx
Błędy kontrolera lub wyświetlacza plazmowego P70/P75
dysków
WORM
(Write
Once
Read
Multiple)
komputera
165xx
Błędy kontrolera napędów taśmowych lub napędu taśmowego 6157
166xx
Błędy podstawowego kontrolera sieci Token Ring
I67xx
Błędy zastępczego kontrolera sieci Token Ring
180xx
Błędy kontrolera kart rozszerzeń komputerów PS/2
194xx
Błędy modułu rozszerzania pamięci 286
208xxxx
Nierozpoznane błędy urządzenia SCSI
209xxxx
Błędy wymiennego dysku SCSI
21 Oxxxx
Błędy stałego dysku SCSI
211 xxxx
Błędy napędu taśmowego SCSI
212xxxx
Błędy drukarki SCSI
213xxxx
Błędy procesora SCSI
214xxxx
Błędy stacji WORM (Write Once Read Multiple) SCSI
215xxxx
Błędy CD-ROM-u SCSI
216xxxx
Błędy skanera SCSI
217xxxx
Błędy pamięci optycznej SCSI
218xxxx Błędy wymiennika płyt SCSI 219xxxx Błędy komunikacji SCSI
W tabeli 22.6. oraz 22.7. zostały wypisane kody błędów pochodzące z oficjalnej dokumentacji lub napotykane u wielu producentów BIOS-ów.
Opis Kod
Błąd sumy kontrolnej ROM (Read Only Memory). Sprawdź konfigurację. OOAx. OOBx. OOCx. OODx
Błąd sumy kontrolnej ROM pamięci graficznej. Sprawdź sterownik lub ROM karty graficznej.
008x
Błąd sumy kontrolnej sterownika ROM \v adresach pomiędzy CSOOOOh a CFFFFh. Sprawdź konfigurację i sterownik.
009x
Zegar czasu rzeczywistego CMOS nie jest uaktualniany. Sprawdź stan baterii oraz płytę główną.
O ll lx, 0120
Zegar czasu rzeczywistego CMOS ma ustawioną nieprawidłową datę i/lub czas. Zresetuj datę i czas.
0130
Informacja o pamięci zawarta w CMOS jest nieprawidłowa. Sprawdź zworkę czyszczenia konfiguracji na Twojej płycie głównej - powinna być rozwarta. Konfiguracja zawarta w CMOS nie pokrywa się z zainstalowanymi urządzeniami.
0240.0241
Informacje o konfiguracji zawarte w pamięci CMOS zostały uszkodzone. Pamięć EEPROM nie została ustawiona, bądź jest uszkodzona.
0250
Systemowy kontroler myszy lub klawiatury nie odpowiada.
0280.0282
Systemowy kontroler myszy lub klawiatury nie przeszedł testów. Sprawdź kontroler klawiatury.
02CO
Klawiatura nie odpowiada na testy POST-u. Sprawdź kabel oraz kontroler 0301, 0302. 0303. 0305, 0306, 0307, klawiatury. 0311.0312. 03EO, 03E1,03E2. 03E3. Błąd podczas wstępnych testów klawiatury. Sprawdź klawiaturę. 03E4. 03E5. 03EE, 03EC Błąd podczas testowania interfejsu myszy. 0342, 0343, 0344, 0345,
0346.0350,0351
Sprawdź mysz, kabel lub kontroler klawiatury/myszy. Błąd resetu klawiatury/myszy. Sprawdź mysz i kabel. Błąd bramki A20. Sprawdź kontroler klawiatury/myszy (8042) na płycie głównej lub płytę główną. Błąd lub konflikt portu szeregowego. Sprawdź płytę główną lub sterowniki.
0354 03E6. 03E7. 03E8 Kod 03 E A, 03 EB lxx
Tabela 22.7. cd. Kody generowane pr:ez POST ora: programy diagnostyczne IBM-a Opis Błędy płyty głównej 103
Błąd rozszerzenia 2 kB CMOS RAM komputerów PS/2.
104
Błąd trybu prolected płyty głównej.
105
Błąd kontrolera klawiatury 8042 na płycie głównej.
106
Błąd testu operacji logicznych płyty głównej.
107
Błąd testu przerwania NM1 (Non-Maskable Interntpt). gorące NM1.
108
Błąd testu szyny danych zegara płyty głównej.
109
Błąd wybierania wybierania kości MB.
110
Błąd sprawdzania parzystości płyty głównej PS/2 (PAR1TY CHECK 1).
111
Błąd sprawdzania parzystości kanału (szyny) 1/0 PS/2 (PARITY CHECK 2).
112
Błąd MCA (Micro Channels Arbitration) przekroczyła czas oczekiwania (błąd NMI).
113
Błąd MCA komputera PS/2; przekroczony czas wyboru DMA (błąd NMI).
114
Błąd sumy kontrolnej zewnętrznego ROM komputera PS/2.
pamięci
przez
płytę
główną;
niezdany
komputera
PS/2,
test
niskiego
jednostka
poziomu
nadzorująca
115
Błąd parzystości pamięci cache, błąd sumy kontrolnej ROM lub błąd DMA.
116
Błąd odczytu/zapisu na port ptyty głównej.
118
Błąd parzystości płyty uruchomienia komputera.
głównej
lub
pamięci
119
Krok ..E" poziom 82077 (nie obsługiwana) stacja 2,88 MB.
120
Błąd autotestu mikroprocesora.
121
Błąd sumy kontrolnej 256 kB ROM (drugi bank 128 kB).
121
Wystąpiło nieoczekiwane przerwanie sprzętowe.
131
Błąd testu portu kaset PC.
131
Błąd kompatybilności rejestrów DMA (Direct Memory Access).
132
Błąd kompatybilności rozszerzonych rejestrów DMA.
133
Błąd weryfikacji operacji logicznych DMA.
134
Błąd logiki wybierania DMA.
151
Uszkodzona bateria lub CMOS RAM.
152
Uszkodzony zegar czasu rzeczywistego lub CMOS RAM.
160
Nie rozpoznane ID płyty głównej PS/2.
(kontroler
cache
stacji
L2
dysków)
podczas i
ostatniego
zainstalowana
cd. na następnej stronie lxx Błędy płyty głównej 161
Pusta konfiguracja CMOS (rozładowana bateria).
162
Błąd sumy kontrolnej CMOS lub nieprawidłowe ID karty rozszerzeń.
163
Błąd pamięci CMOS; nie ustawiona data i czas (zegar się nie uaktualnia).
164
Błąd wielkości pamięci; ustawienia CMOS nie zgadzają się z ilością pamięci.
165
Nieprawidłowe ID karty rozszerzeń MCA komputerów PS/2 i pamięci CMOS.
166
Karta
167
Zegar CMOS komputerów PS/2 nie uaktualnia się.
168
Błąd konfiguracji CMOS (koprocesor matematyczny).
169
Niezgodna konfiguracja karty Uruchom program konfiguracyjny.
170
Konflikt programu konfigurującego ASCII.
170
Komputer PC Convertible; LCD nie jest używany podczas uśpienia.
171
Błąd przenoszenia bitów w bajcie adresu wyłączenia pamięci CMOS.
171
Komputer PC Convertible; błąd sumy kontrolnej bazowych 128 kB RAM.
172
Błąd przenoszenia bitów w bajcie diagnostycznym NYRAM.
172
Komputer PC Convertible; podczas włączenia uśpienia pracował dysk.
173
Błędna suma kontrolna CMOS/NYRAM.
rozszerzeń (karta zajęta).
MCA
komputerów
PS/2
procesora
przekroczyła
z
173
Komputer PC Convertible; błąd weryfikacji zegara czasu rzeczywistego.
174
Błędna konfiguracja.
informacją
dozwolony
płyty
czas
oczekiwania
głównej.
174
Komputer PC Convertible zmieniona konfiguracja LCD.
175
Uszkodzony EEPROM CRC # l.
175
Komputer PC Convertible błąd zastępczego trybu LCD.
176
Oczywiste, nieuprawnione przeróbki sprzętu.
177
Nieprawidłowa CRC PAP (Privileged-Access Password).
177
Nieprawidłowy EEPROM.
178
Nieprawidłowy EEPROM.
179
Przepełniony log błędów NYRAM.
180x
Błąd adresu danych; jest numerem gniazda, które spowodowało błąd.
181
Nieobsługiwana konfiguracja.
182
Zworka uprzywilejowanego dostępu (JMP2) nie znajduje jącej na zapis. Błędy płyty głównej lxx 183 Aby uruchomić programy systemowe, wymagany jest PAP.
183
Wymagany jest kod uprzywilejowanego dostępu.
184
Błędna suma kontrolna hasła przy włączaniu - usuń je.
184
Nieprawidłowe hasło przy włączaniu.
185
Nieprawidłowa sekwencja startowa.
186
Błąd sprzętowy systemu zabezpieczania hasłem.
187
Błąd numeru seryjnego.
188
Nieprawidłowa suma kontrolna CRC #2 EEPROM.
189
Zbyt wiele niepoprawnych prób podania hasła.
191
Niezdany test kontrolera 82385 pamięci cache.
194
Błąd pamięci płyty głównej.
199
Wybrana przez użytkownika lista zainstalowanych urządzeń nie jest prawidłowa. 2xx
się
w
pozycji
zezwala
Błędy pamięci (RAM) 20X
Błąd pamięci.
201
Błąd pamięci; może być pokazane umiejscowienie błędu.
202
Błąd adresowania pamięci; linie 00-15.
203
Błąd adresowania pamięci; linie 16-29 (ISA) lub 16-31 (MCA).
204
Z powodu diagnostyczny.
205
Błąd podstawowych 128 kB pamięci; zmieniono obszar pamięci.
207
Uszkodzenie ROM.
210
Błąd parzystości pamięci płyty głównej.
211
Uszkodzenie bazowych 64 kB pamięci płyty głównej komputera PS/2.
212
Jednostka nadzorująca przerwanie NMI).
213
Przekroczony
błędu
czas
zmieniono
obszar
przekroczyła rozdzielania
pamięci;
czas
zasobów
uruchom
jeszcze
oczekiwania szyny
DMA
raz
(informacja (informacja
program
poprzez poprzez
przerwanie NMI). 215
Pamięć PS/2; błąd podstawowych 64 kB na SIP 2.
216
Pamięć PS/2; błąd podstawowych 64 kB na SIP l.
221
Pamięć PS/2; błąd kopiowania ROM do RAM (cieniowanie ROM). 225
Pamięć PS/2; nieprawidłowa _________SIMM-y.
szybkość
pamięci
na
płycie
głównej,
nieobslugiwane
Tab ela
22.7. cd. Kodv generowane przez POST oraz programy diagnostyczne IBMa
Kod
Opis
2xx
Błędy pamięci (RAM)
230
Za/.ębiające się karty rozszerzeń i pamięć (rodzina 1.).
231
Zainstalowana pamięć karty rozszerzeń nie jest ciągła (rodzina 1 .).
231
Kontroler pamięci rozszerzonej EMS 386 2/4-16 MB: uszkodzony 1. moduł pamięci.
235
Zablokowana linia danych w module pamięci, mikroprocesorze lub płycie głównej.
241
Kontroler pamięci rozszerzonej EMS 386 2/4-16 MB; uszkodzony 2. moduł pamięci.
251
Kontroler pamięci rozszerzonej EMS 386 2/4-16 MB; uszkodzony 3. moduł pamięci.
3xx
Błędy klawiatury
301
Błąd resetu klawiatury lub zablokowany klawisz (SS 301, gdzie SS jest kodem klawisza).
302
Klawiatura zablokowana przez użytkownika.
303
Błąd interfejsu przenoszącego dane z klawiatury do systemu; uszkodzenie kontrolera klawiatury.
304
Błąd klawiatury lub płyty głównej; podwyższona częstotliwość zegara klawiatury.
305
Błąd napięcia stałego 5 V klawiatury; błąd bezpiecznika klawiatury na płycie głównej komputera PS/2.
306
Podłączono nieobsługiwaną klawiaturę.
341
Błąd klawiatury.
342
Uszkodzony kabel klawiatury.
343
Uszkodzenie kabla lub diod LED na klawiaturze.
365
Uszkodzenie kabla lub diod LED na klawiaturze.
366
Uszkodzenie kabla łączącego klawiaturę z komputerem.
367
Uszkodzenie kabla lub diod LED na klawiaturze.
4xx
Błędy karty graficznej MDA na komputerach PS/2 Błędy portu równoległego płyty głównej
401
Uszkodzenie pamięci karty MDA, częstotliwości sygnału synchronizacji poziomej, błąd karty graficznej.
401
Błąd portu równoległego komputera PS/2.
408
Błąd inicjacji ustawionych przez użytkownika parametrów wyświetlania.
416
Błąd inicjacji ustawionych przez użytkownika parametrów wyświetlania znaków.
424
Błąd inicjacji ustawionego przez użytkownika trybu 80 x 25.
432
Błąd portu równoległego; karty graficznej MDA..
Opis Błędy karty graficznej CGA *501
BlądCRT.
501
Uszkodzenie pamięci CGA, lub btąd karty graficznej.
503
Uszkodzenie kontrolera karty CGA.
508
Błąd inicjacji ustawionych przez użytkownika parametrów wyświetlania.
516
Błąd inicjacji ustawionych przez użytkownika parametrów wyświetlania znaków.
524
Błąd inicjacji ustawionego przez użytkownika trybu 80 * 25.
532
Błąd inicjacji ustawionego przez użytkownika trybu 40 x 25.
540
Błąd inicjacji ustawionego przez użytkownika trybu graficznego 320 x 200.
548
Błąd inicjacji ustawionego przez użytkownika trybu graficznego 640 x 200.
556
Niezdany test wybranego przez użytkownika pióra świetlnego.
564
Niezdany test wybranego przez użytkownika stronicowania. 6xx
częstotliwości
Błędy stacji dysków lub jej kontrolera 601
Błędy POST stacji/kontrolera; błąd kontrolera lub stacji dysków.
602
Nieprawidłowy sektor startowy dysku.
603
Nieprawidłowa pojemność dyskietki.
604
Nie wykryto nośnika danych.
605
Zablokowana stacja dysków.
606
Niezdany test weryfikacji dysku.
607
Błąd zabezpieczenia dysku przed zapisem.
608
Błąd komendy przesianej do stacji dysków.
610
Błąd inicjacji dysku, zła ścieżka zerowa.
611
Błąd przekroczenia czasu oczekiwania stacji dysków.
612
Błąd układów kontrolera (NEC).
613
Błąd DMA.
614
Błąd naruszenia granicy DMA.
615
Błąd taktowania indeksu stacji.
616
Błąd szybkości stacji.
621
sygnału
Błąd wyszukiwania stacji.
622
Błąd CRC stacji dysków.
623
Błąd nieodnalezienia sektora. cd. na następnej stronie
synchronizacji
poziomej
Błędy stacji dysków lub jej kontrolera 624
Błąd znacznika adresu.
625
Błąd wyszukiwania układów kontrolera (NEC).
626
Błąd porównywania danych dyskowych.
627
Błąd zmiany dysku.
628
Dysk wyjęty.
630
Wysoki wskaźnik blokady: stacja A:.
631
Niski wskaźnik blokady; stacja A:.
632
Wyłączona blokada ścieżki zerowej: stacja A:.
633
Włączona blokada ścieżki zerowej; stacja A:.
640
Wysoki wskaźnik blokady; stacja A:.
641
Niski wskaźnik blokady; stacja A:.
642
Wyłączona blokada ścieżki zerowej; stacja B:.
643
Włączona blokada ścieżki zerowej; stacja B:.
645
Brak pulsu indeksu.
646
Nie odnaleziono ścieżki zerowej w stacji dysków.
647
Brak przejść w odczytanej linii danych.
648
Niezdany test formatu.
649
Błędny typ nośnika danych w stacji.
650
Błąd prędkości stacji.
651
Nieudany format.
652
Błąd weryfikacji.
653
Błąd odczytu.
654
Błąd zapisu.
655
Błąd kontrolera.
656
Uszkodzenie stacji dysków. 657
657
Dyskietka zabezpieczona przed zapisem.
Zmiana zabezpieczenia przed zmianą linii danych. 659
Odbezpieczono blokadę przed zapisem.
660
Nie zmieniono pozycji zabezpieczenia przed zmianą linii danych.
Tabela
22.7. cd. Kody generowane przez POST oraz programy diagnostyczne IBM-a
Kod
Opis
7xx
Błędy koprocesora matematycznego
701
Błąd inicjacji/istnienia koprocesora matematycznego.
702
Niezdany test błędów wyjątków.
703
Niezdany test zaokrąglania.
704
Niezdany test 1. działań arytmetycznych.
705
Niezdany test 2. działań arytmetycznych.
706
Niezdany test 3. działań arytmetycznych (tylko 80387).
707
Niezdany test kombinacji.
708
Niezdany test wczytywania/zachowywania liczb całkowitych.
709
Błąd równoważnych wyrażeń.
710
Błąd wyjątków (przerwanie).
711
Błąd stanu zachowawczego (FSAVE).
712
Niezdany test trybu protected.
713
Niezdany test specjalny (czułości na napięcie/temperaturę).
9xx
Błędy kontrolera portu równoległego drukarki
901
Błąd zamknięcia rejestru danych kontrolera drukarki.
902
Błąd zamknięcia rejestru sterowania kontrolera drukarki.
903
Błąd rejestru adresu dekodowania danych kontrolera drukarki.
904
Błąd adresu dekodowania danych kontrolera drukarki.
910
Bląd linii statusu złącza zapętlającego.
911
Błąd zapętlenia bitu 8. linii statusu.
912
Błąd zapętlenia bitu 7. linii statusu.
913
Błąd zapętlenia bitu 6. linii statusu.
914
Błąd zapętlenia bitu 5. linii statusu.
915
Błąd zapętlenia bitu 4. linii statusu.
916
Błąd zapętlenia przerwania złącza drukarki.
917
Nieoczekiwane przerwanie złącza drukarki.
92X
Błąd cechy rejestru.
10xx
Błędy alternatywnego kontrolera portu drukarki
1001
Błąd zamknięcia rejestru danych kontrolera drukarki.
1002
Błąd zamknięcia rejestru sterowania kontrolera drukarki.
cd. na następnej stronie Błędy alternatywnego kontrolera portu drukarki 1003
Błąd rejestru adresu dekodowania danych kontrolera drukarki.
1004
Btąd adresu dekodowania danych kontrolera drukarki.
1010
Btąd li nii statusu złącza zapętlającego.
1011
Błąd zapętlenia bitu 8. l inii statusu.
1012
Błąd zapętlenia bitu 7. l i ni i statusu.
1013
Błąd zapętlenia bitu 6. linii statusu.
1014
Błąd zapętlenia bitu 5. l inii statusu.
1015
Błąd zapętlenia bitu 4. l inii statusu.
1016
Błąd zapętlenia przerwania złącza drukarki.
1017
Nieoczekiwane przerwanie złącza drukarki.
102X
Błąd cechy rejestru. Błędy podstawowej komunikacji asynchronicznej (port szeregowy COM1:)
1101
Błąd układu 16450/16550: błąd portu szeregowego A.
1102
Błąd sprzężenia wybranego przez kartę.
11-02
Niezdany test modemu wewnętrznego komputerów PC Convertible.
1103
Niezdany test rejestru portu 102h.
1103
Niezdany test l. PC Convertible.
występowania
sygnału
linii
wewnętrznego
modemu
komputera
1104
Niezdany test 2. PC Convertible.
występowania
sygnału
linii
wewnętrznego
modemu
komputera
1106
Opcja szeregowa nie może zostać uśpiona.
1107
Błąd kabla.
1108
Błąd komunikatu przerwania 3. (IRQ).
1109
Błąd komunikatu przerwania 4. (IRQ).
1110
Błąd rejestru układu 16450/16550. 1111
Niezdany wewnętrzny test linii kontrolnej układu 16450/16550 modemu.
1112
Niezdany zewnętrzny test linii kontrolnej układu 16450/16550 modemu.
11 13
Błąd transmisji układu 16450/16550.
1114
Błąd odbierania układu 16450/16550.
1115
Błąd
1116
odbierania wysłanymi.
układu
16450/16550:
odebrane
dane
nie
Błąd funkcji przerwania układu 16450/16550. Błędy podstawowej komunikacji asynchronicznej (port szeregowy COM1:)
1117
Niezdany test współczynnika bodów układu 16450/16550.
1118
Niezdany test odbioru danych zewnętrznych układu 16450/16550.
1119
Uszkodzony bufor FIFO (first-in flrst-ouf) układu 16450/16550.
1120
Błąd rejestru włączania przerwań; nie mogą zostać ustawione wszystkie bity.
1121
Błąd rejestru włączania przerwań: nie mogą zostać zresetowane wszystkie bity.
1122
Przerwanie w toku: zawieszone.
1123
Rejestr przerwania ID; zawieszony.
1124
Błąd rejestru kontroli modemu: nie mogą zostać ustawione wszystkie bity.
1125
Błąd rejestru kontroli modemu; nie mogą zostać zresetowane wszystkie bity.
1126
Błąd rejestru statusu modemu; nie mogą zostać ustawione wszystkie bity.
1127
Błąd rejestru statusu modemu; nie mogą zostać zresetowane wszystkie bity.
1128
Błąd ID przerwania.
pokrywają
się
zdanymi
1129
Błąd braku możliwości wymuszenia przedłużenia aktualnego działania.
1130
Brak przerwania statusu modemu.
1131
Nieprawidłowy tok przerwania.
1132
Brak gotowych danych.
1133
Brak dostępnego przerwania danych.
1134
Brak dostępnego przerwania podtrzymania transmisji.
1135
Brak przerwań.
1136
Nie otrzymano przerwania statusu linii sinusoidalnej.
1137
Brak dostępnych otrzymanych danych.
1138
Rejestr podtrzymujący przesyłanie danych nie jest pusty.
1139
Brak przerwania statusu modemu.
1140
Rejestr podtrzymujący przesyłanie danych nie jest pusty.
1141
Brak przerwań. 1142
Brak przerwania 4.
1143
Brak przerwania 3.
1144
Brak przesłanych danych.
1145
Błąd maksymalnej ilości bodów.
1146
Błąd minimalnej ilości bodów.
Błędy podstawowej komunikacji asynchronicznej (port szeregowy COM1:) 1148
Btąd przekroczenia czasu oczekiwania.
1149
Powróciły nieprawidłowe dane.
1150
Błąd rejestru statusu modemu.
1151
Brak gotowości danych oraz delty gotowych ustawień danych.
1152
Brak gotowości ustawień danych.
1153
Brak gotowości ustawień delty danych.
1154
Rejestry statusu modemu niejasne.
1155
Brak sygnału czystości do wysiania (CTS) oraz sygnału delta czystość do wysłania.
1156
Brak sygnału czystości do wysłania (CTS).
1157
Brak sygnału delta czystość do wysłania.
12xx
Błędy
1201
Błąd układu 16450/16550.
1202
Błąd sprzężenia wybranego przez kartę.
alternatywnej komunikacji (porty szeregowe COM2:, COM3: oraz COM4:)
asynchronicznej
1203
Niezdany test rejestru portu 102h.
1206
Opcja szeregowa nie może zostać uśpiona.
1207
B ląd kabla.
1208
Błąd komunikatu przerwania 3. (IRQ).
1209
Błąd komunikatu przerwania 4. (IRQ).
1210
Błąd rejestru układu 16450/16550.
1211
Niezdany wewnętrzny test linii kontrolnej układu 16450/16550 modemu.
1212
Niezdany zewnętrzny test linii kontrolnej układu 16450/16550 modemu.
1213
Błąd transmisji układu 16450/16550.
1214
Błąd odbierania układu 16450/16550.
1215
Błąd odbierania układu 16450/16550: odebrane dane nie pokrywają się z danymi wysłanymi.
1216
Błąd funkcji przerwania układu 16450/16550. 1217
Niezdany test współczynnika bodów układu 16450/16550.
1218
Niezdany test odbioru danych zewnętrznych układu 16450/16550.
1219
Uszkodzony bufor FIFO (first-in ftrst-out) układu 16450/16550.
1220
Błąd rejestru włączania przerwań; wszystkie bity nie mogą zostać ustawione.
1221
Błąd rejestru włączania przerwań; wszystkie bity nie mogą zostać zresetowane.
12xx
Błędy
1222
Przerwanie w toku; zawieszone.
1223
Rejestr przerwania ID; zawieszony.
1224
Błąd rejestru kontroli modemu: wszystkie bity nie mogą zostać ustawione.
1225
Błąd rejestru kontroli modemu; wszystkie bity nie mogą zostać zresetowane.
1226
Błąd rejestru statusu modemu: wszystkie bity nie mogą zostać ustawione.
1227
Błąd rejestru statusu modemu; wszystkie bity nie mogą zostać zresetowane.
1228
Błąd ID przerwania.
1229
Błąd braku możliwości wymuszenia przedłużenia aktualnego działania.
1230
Brak przerwania statusu modemu.
1231
Nieprawidłowy tok przerwania.
1232
Brak gotowych danych.
1233
Brak dostępnego przerwania danych.
1234
Brak dostępnego przerwania podtrzymania transmisji.
1235
Brak przerwań.
1236
Nie otrzymano sinusa statusu przerwań.
1237
Brak dostępnych otrzymanych danych.
alternatywnej komunikacji (porty szeregowe COM2:, COM3: oraz COM4:)
asynchronicznej
1238
Rejestr podtrzymujący przesyłanie danych nie jest pusty.
1239
Brak przerwania statusu modemu.
1240
Rejestr podtrzymujący przesyłanie danych nie jest pusty.
1241
Brak przerwań.
1242
Brak przerwania 4.
1243
Brak przerwania 3.
1244
Brak przesłanych danych.
1245
Błąd maksymalnej ilości bodów.
1246
Błąd minimalnej ilości bodów.
1248
Błąd przekroczenia czasu oczekiwania.
1249
Powróciły nieprawidłowe dane.
1250
Błąd rejestru statusu modemu.
1251
Brak gotowych ustawień danych oraz delty gotowych ustawień danych.
1252
Brak gotowych ustawień danych. Błędy alternatywnej komunikacji (porty szeregowe COM2:. COM3: oraz COM4:)
1253
Brak gotowych ustawień delta dane.
1254
Rejestry statusu modemu niejasne.
1255
Brak sygnału Clear To Send (CTS) oraz sygnału delta Clear To Send (CTS).
1256
Brak sygnału jasne do wysłania (CTS).
1257
Brak sygnału delta jasne do wysiania (CTS). Błędy kontrolera portu gier
1301
Niezdany test kontrolera portu gier.
1302
Niezdany test joysticka. Błędy dysku stałego ST-506/412 oraz jego kontrolera
1701
Generalny błąd testów POST dysku stałego.
1702
Błąd przekroczenia czasu oczekiwania dysku/kontrolera.
1703
Błąd wyszukiwania dysku.
1704
Uszkodzenie kontrolera.
1705
Błąd nieodnalezienia sektora na dysku.
1.706
Błąd zapisu.
1707
Błędna ścieżka zerowa na dysku.
1708
Błąd wyboru głowicy.
1709
Błąd korekcji błędów (ECC).
1710
Przepełnienie buforu sektora.
asynchronicznej
1711
Nieprawidłowy znacznik adresu.
1712
Niezdane wewnętrzne testy diagnostyczne kontrolera.
1713
Błąd porównywania danych.
1714
Urządzenie nie jest gotowe.
1715
Nieprawidłowy wskaźnik ścieżki zerowej.
1716
Błąd diagnostyki cylindra.
1717
Błąd odczytu nośnika. 1718
Błąd typu dysku twardego.
1720
Nieprawidłowa diagnostyka cylindra.
1726 1730
Błąd porównywania danych. Błąd kontrolera.
1731
Błąd kontrolera. Błędy dysku stałego ST-506/412 oraz jego kontrolera 1732
Błąd kontrolera.
1733
Niezdefiniowany błąd zwrócony przez BIOS.
1735
Błąd nieprawidłowego polecenia.
1736
Błąd poprawionych danych.
1737
Błąd nieprawidłowej ścieżki.
1738
Błąd nieprawidłowego sektora.
1739
Błąd nieprawidłowej inicjacji.
1740
Błąd nieprawidłowej detekcji.
1750
Błąd weryfikacji.
1751
Błąd odczytu.
1752
Błąd zapisu.
1753
Niezdany test losowego odczytu.
1754
Niezdany test wyszukiwania.
1755
Uszkodzenie kontrolera.
1756
Niezdany test korekcji błędów (ECC) kontrolera.
1757
Błąd wyboru głowicy poprzez kontroler.
1780
Błąd wyszukiwania; dysk 0.
1781
Błąd wyszukiwania; dysk 1.
1782
Niezdany test kontrolera.
1790
Błąd odczytu diagnozowanego cylindra: dysk 0.
1791
Błąd odczytu diagnozowanego cylindra; dysk 1. Błędy kart graficznych EGA oraz VGA
2401
Niezdany test karty graficznej.
2402
Błąd wyświetlania karty.
2408
Niezdany test wybranego przez użytkownika trybu wyświetlania.
2409
Błąd wyświetlania obrazu.
2410
Uszkodzenie karty graficznej: uszkodzenie portu karty graficznej.
2416
Niezdany test ustawionych przez użytkownika parametrów wyświetlania znaków.
2424
Błąd inicjacji ustawionego przez użytkownika trybu 80 x 25.
2432
Błąd inicjacji ustawionego przez użytkownika trybu 40 * 25. Błędy kart graficznych EGA oraz VGA
2440
Błąd inicjacji ustawionego przez użytkownika trybu graficznego 320 x 200.
2448
Błąd inicjacji ustawionego przez użytkownika trybu graficznego 640 x 200.
2456
Niezdany test wybranego przez użytkownika pióra świetlnego.
2464
Niezdany test wybranego przez użytkownika stronicowania. Błędy alternatywnej karty graficznej EGA Błędy kontrolera XT lub AT/370 370-M (pamięć) oraz 370-P (procesor) Błędy kontrolera XT lub AT/370 3277-EM (emulacja) Błędy kontrolera emulacji 3278/79 lub kontrolera połączenia 3270 Błędy koloru/grafiki drukarek Błędy nadrzędnej karty sieciowej PC 3001
Niezdany test procesora.
3002
Nieprawidłowa suma kontrolna ROM.
3003
Niezdany test ID PROM jednostki.
3004
Niezdany test pamięci RAM.
3005
Niezdany test kontrolera interfejsu hosta.
3006
Niezdany test [p/m] 12V.
3007
Niezdany test cyfrowej pętli zwrotnej.
3008
Host wykrył błąd kontrolera interfejsu hosta.
3009
Brak synchronizacji i bitu Go.
3010
Zdany test interfejsu kontrolera hosta i brak bitu Go.
3013
30! l
Bit Go bez polecenia 41.
3012
Brak karty.
Błąd cyfrowy; sygnał nie dochodzi. 3015
Błąd analogowy.
3041
Błędny sygnał nośny; nie tej karty.
Błędy podrzędnej karty sieciowej PC 3105
Niezdany test kontrolera interfejsu hosta.
3106
Niezdany test [p/m] 12V.
3107
Niezdany test cyfrowej pętli zwrotnej.
3108
Host wykrył błąd kontrolera interfejsu hosta.
3109
Brak synchronizacji i bitu Go.
3110
Zdany test interfejsu kontrolera hosta i brak bitu Go.
3111
Bit Go bez polecenia 41.
3112
Brak karty.
3113
Błąd cyfrowy; sygnał nie dochodzi.
3115
Błąd analogowy.
3141
Błędny sygnał nośny; nie tej karty.
3142
Błędny sygnał nośny; tej karty.
32xx
Błędy
karty graficznej Symbols Adapter)
3270
PC
oraz
AT
DPSA
(AT
Display
and
Programmed.
Błędy niewielkich drukarek Błędy EDSEA (Enhanced Display Station Emulation Adapter) Błędy kontrolera GPIB (General Purpose Interface Bus) Błędy kontrolera SCSI na płycie głównej
44xx
38xx
Błędy kontrolera przyjmowania danych
39xx
Błędy karty graficznej PGA (Professional Graphics Adapter)________
Błędy 5278
jednostki
dołączeń
kart
graficznych
5278
oraz
błędy
karty
graficznej
Błędy kontrolera interfejsu IEEE (IEEE-488) 46xx
Błędy kontrolera czasu rzeczywistego (A Real-Time Interface Coprocessor) (Multiport/2)
koprocesora
ARTIC
Błędy modemu wewnętrznego Błędy alternatywnego modemu wewnętrznego
Programy diagnostyczne ogólnego użytku Istnieje duża ilość oprogramowania diagnostycznego dla komputerów zgodnych z PC. Dostępne są wyspecjalizowane programy testujące pamięć, stacje dysków, dyski twarde. karty graficzne, a także większość innych obszarów komputera. Pomimo iż niektóre z nich mogłyby stanowić zasadniczą część jakiegokolwiek zbioru narzędzi, większość okazuje się jednak nie spełniać wymagań stawianych przez ludzi profesjonalnie rozwiązujących problemy. Wiele produktów ukierunkowanych bardziej na wygodę użytkowania zostaje pozbawionych dokładności, opcji oraz możliwości wymaganych przez biegłych technicznie ludzi, myślących poważnie o usuwaniu błędów. Większość z lepszych programów diagnostycznych obecnych na rynku posiada wiele opcji podobnych do oferowanych przez oprogramowanie diagnostyczne firmy IBM. Są one najczęściej bardziej pomocne w ustaleniu, gdzie tkwi problem nękający komputer, szczególnie jeśli chodzi o komputery kompatybilne z IBM. Często są do nich dołączane lub też dostępne za dodatkową opłatą złącza zapętlające, podłączane do portu szeregowego lub równoległego. Urządzenia te są niezbędne do przetestowania tych portów. (IBM zawsze pobiera za nie dodatkową opłatę.) Wiele z tych programów może działać w trybie automatycznym, umożliwiającym uruchomienie z linii komend serii testów bez dodatkowych interwencji operatora. Możesz wówczas ustawić serię automatycznie uruchamianych testów, które mogą być szczególnie użyteczne przy „docieraniu" komputera lub wykonać te same testy na wielu komputerach. Zanim użyjesz komercyjnego programu diagnostycznego w celu poradzenia sobie z problemem, przyjrzyj się swemu systemowi operacyjnemu. Większość dzisiejszych systemów operacyjnych jest w stanie wykonać niektóre spośród testów diagnostycznych równie dobrze jak specjalistyczne oprogramowanie. Być może uda Ci
się zaoszczędzić trochę czasu i pieniędzy. Programy diagnostyczne bazujące na systemie operacyjnym zostały opisane w rozdziale 23. „Oprogramowanie systemowe, rozwiązywanie problemów". Niestety, nie ma wyróżniającego się lidera na rynku oprogramowania diagnostycznego. Każdy z prezentowanych tu programów diagnostycznych posiada unikatowe możliwości. W rezultacie nie istnieje program w całości lepszy od wszystkich innych. Zanim zdecydujesz się, który z programów (o ile taki w ogóle jest) masz ochotę dołączyć do swego arsenału, sprawdź, czy posiada on niezbędne Tobie możliwości.
AMIDiag AMI (American Megatrends) wyprodukował obecnie najbardziej popularne na rynku układy BIOS. BlOS-y AMI można odnaleźć w większości nowo wyprodukowanych komputerów zgodnych z IBM. Jeśli widziałeś już AMIBIOS, wiesz, że większość jego wersji posiada wbudowany program diagnostyczny. Niewielu natomiast ludzi wie, że sprzedawane przez tę firmę oprogramowanie diagnostyczne jest rozszerzoną, dyskową wersją AMIDiag posiada wiele opcji oraz dodatkowych możliwości, których nie ma uproszczona wersja zawarta w ROM-ie. AMIDiag jest pełnowartościowym programem diagnostycznym ogólnego użytku, zaprojektowanym do współdziałania ze wszystkimi komputerami kompatybilnymi z IBM, a nie tylko z posiadającymi BIOS tej samej firmy. Na stronie domowej AMI w Internecie znajduje się udostępniona do zgrywania wersja demonstracyjna programu AMIDiag: http://www.megatrends.com
Checkit Pro Checkit firmy Touchstone Software Corporation oferuje ogromne możliwości testowania, łącznie z testami procesora, pamięci podstawowej, pamięci rozszerzonej EMS oraz XMS, dysków twardych, stacji dysków, a także karty graficznej i monitora (wraz ze zgodnymi ze standardem VESA kartami graficznymi i monitorami, myszami oraz klawiaturami). Program Checkit jest dostępny w wielu wersjach - najbardziej kompleksowo badającą sprzęt jest wersja Checkit Pro Deluxe. Checkit Pro Analyst dla Windows przeprowadza diagnostykę bazującą na tym systemie. Checkit Plus, dołączany przez niektóre firmy do sprzedawanych komputerów, jest okrojoną wersją programu. Checkit Deluxe nie posiada wprawdzie rozbudowanych testów prędkości komputera, w zamian jednak oferuje szczegółowe informacje o Twoim komputerze, jak na przykład: całkowitą ilość pamięci, typ i pojemność dysku twardego, aktualną alokację pamięci (także przydział pamięci wyższej), dostępne i przydzielone IRQ, prędkość modemu/faxmodemu, a także wiele innych przydatnych przy rozwiązywaniu problemów sprzętowych testów. Checkit Pro Deluxe zawiera moduł umożliwiający edycję automatycznie otwieranych plików konfiguracyjnych CONFIG.SYS oraz AUTOEXEC.BAT. Jeśli używasz systemu Windows, Checkit Pro umożliwi Ci prostą edycję plików konfiguracyjnych SYSTEM.INI oraz WIN.INI. Niektóre spośród możliwości Checkit Pro nie mają swego odpowiednika w innych programach diagnostycznych (na przykład możliwość testowania ustawień modemu/faxu). Pomimo to Checkit Pro nie posiada kilku ważnych opcji, jak na przykład łatwej w obsłudze listy wolnych kanałów DMA, kluczowej przy instalowaniu karty dźwiękowej czy też innych urządzeń. Aby uzyskać dodatkowe informacje o programie, sprawdź jego stronę WWW: http://www.checkit.com/products/index.htm.products.htm
Microscope Microscone firmy Micro 2000 jest rozbudowanym programem diagnostycznym ogólnego użytku dla komputerów zgodnych z IBM. Program ten posiada wiele możliwość, i cech mogących być bardzo użytecznymi przy diagnostyce i rozwiązywaniu problemów ze sprzętem. Pakiet Microscope jest jednym z nielicznych pakietów diagnostycznych zorientowanych na komputery PS/2. Microscope pomoże Ci nie tylko w rozwiązywaniu problemów z komputerami PS/2, ale także wykona operacje, których nie jest w stanie wykonać nawet zaawansowane oprogramowanie diagnostyczne IBM. Na przykład jest w stanie sformatować zgodne z przemysłowym standardem dyski twarde ESDI, podłączone do kontrolera ESDI IBM PS/2. Gdy podłączysz dysk ESDI do kontrolera ESDI firmy IBM. BIOS kontrolera zapyta dysk o jego pojemność i uszkodzi mapę informacji. IBM najwyraźniej stworzył własny standard zapisu tych informacji na dyskach; jeśli kontroler nie jest w stanie ich przeczytać, nie możesz ani ustawić dysku, ani sformatować go za pomocą dyskietki „Reference Disk" dostarczanej wraz z komputerami PS/2. Pomimo iż IBM zamontował w komputerach PS/2 kontroler dysków ESDI, nie uda Ci się zmusić do współpracy z nim wszystkich dysków ESDI. Niektórzy spośród producentów dysków stworzyli specjalne wersje ich urządzeń, zawierające informacje w wymaganym miejscu i działające z komputerami PS/2. Innym sposobem ominięcia problemu jest użycie innego kontrolera ESDI zamiast kontrolera IBM, co umożliwi Ci użytkowanie napędów ESDI zarówno zgodnych ze standardem fabrycznym, jak i ze standardem IBM. Wadą tej metody jest utrata możliwości używania programu formatującego z dyskietki „Reference Disk", ponieważ działa on wyłącznie z kontrolerem IBM. Microscope przezwycięża większość z tych problemów, ponieważ jest w stanie sformatować zgodne ze standardem fabrycznym dyski ESDI na kontrolerze ESDI IBM, dzięki czemu przy dodawaniu dysków do Twojego komputera nie musisz już kupować dodatkowego kontrolera czy też specjalnego dysku. Mjcroscope potrafi również sprawdzać przerwania sprzętowe oraz porty I/O i robi to lepiej niż większość podobnego mu oprogramowania. Dzięki temu możesz dokładnie zidentyfikować przerwanie lub port I/O używane przez każde urządzenie czy też kartę rozszerzeń -jest to cenna właściwość przy rozwiązywaniu konfliktów pomiędzy poszczególnymi elementami Twojego komputera. Niektóre ze zorientowanych na wygodę użytkowania programów diagnostycznych posiadają tę opcję, ale uzyskiwane dzięki niej informacje mogą być rażąco nieprawdziwe, często też zdarza się, że część zainstalowanych w Twoim komputerze urządzeń zostanie pominięta. Microscope obchodzi DOS i BIOS. Ponieważ program ten ma swój własny system operacyjny i przeprowadzane przez niego testy, gdy tylko jest to potrzebne, omijają BIOS zawarty w ROM-ie, jest on w stanie wykryć nawet zazwyczaj niewidoczne elementy komputera. Z tego powodu program ten jest szczególnie przydatny dla techników pracujących w środowisku innym niż DOS, na przykład UNIX lub serwer plików Novella. Jeśli zależy Ci na wygodzie, możesz zainstalować Microscope na twardym dysku i uruchamiać go z poziomu DOS-u. Dodatkowo, Micro 2000 oferuje doskonałą telefoniczną pomoc techniczną. Jej operatorzy robią dużo więcej, niż tylko wyjaśniają, jak używać oprogramowania naprawdę starają się pomóc Ci przezwyciężyć problem. Te informacje poparte są dobrą dokumentacją, a także kontekstową pomocą wbudowaną w program, dzięki czemu w wielu przypadkach nawet nie musisz zaglądać do instrukcji użytkowania. Więcej o Microscope możesz dowiedzieć się pod adresem: http://www.qdeck.com
Programy diagnostyczne Norton Utilities Jeśli weźmiesz pod uwagę, iż Norton Diagnostics (NDIAGS) jest częścią Norton Utilities, natomiast Norton Utilities jest niezbędną kolekcją programów narzędziowych zabezpieczających dane systemowe, pomagających rozwiązywać problemy, testujących oraz naprawiających, stwierdzisz, że NDIAGS jest najprawdopodobniej jednym z najwartościowszych programów diagnostycznych. Jeśli posiadasz już wcześniejszą niż 8.0 wersję Norton Utilities, uaktualnij ją. Istnieje również wersja zaprojektowana dla systemu Windows 95. Jeśli jeszcze nie posiadasz Norton Utilities, powinieneś rozważyć jego kupno, nie tylko dla NDIAGS, ale także dla innych, wchodzących w skład pakietu programów użytkowych, jak Speedisk, Disk Doctor oraz Calibrate. Te trzy programy reprezentują najlepsze technologie w programowym naprawianiu błędów twardego dysku oraz jego diagnostyce. Dzięki programowi SYSINFO, również wchodzącemu w skład Norton Utilities, możesz przeprowadzić testy prędkości komputera równie dobrze, jak jakimkolwiek innym rynkowym pakietem diagnostycznym. NDIAGS oferuje niedostępne poprzednio w Norton Utilities możliwości diagnostyki, łącznie z całościową informacją o konfiguracji sprzętowej komputera — czyli procesorze, systemowym BlOS-ie, koprocesorze, karcie graficznej, typie klawiatury i myszy, typach dysku twardego i stacji dysków, ilości zainstalowanej pamięci (łącznie z pamięcią rozszerzoną EMS oraz XMS), typie szyny (ISA, EISA, MCA) oraz ilości portów szeregowych i równoległych. Jak w żadnym innym programie, w pudełku z NDIAGS nie znajduje się sprzętowe urządzenie do testowania portów, lecz dołączony jest kupon umożliwiający jego darmowe otrzymanie. Co ciekawe, program ten używa złącza zapętlają-cego skonstruowanego nieco inaczej niż najczęściej stosowane rozwiązania. Różnice w budowie umożliwiają dokonanie kilku dodatkowych testów. Na szczęście w dokumentacji znajduje się schemat tego złącza, dzięki czemu w razie potrzeby możesz wykonać własne. NDIAGS gruntownie testuje najważniejsze komponenty komputera oraz daje Ci możliwość przetestowania także tych mniej ważnych, jak na przykład diod NumLock, CapsLock czy też ScrollLock na Twojej klawiaturze. NDIAGS wyświetla również na monitorze obraz kontrolny, dzięki któremu można wycentrować obraz, testuje także obraz na obecność wielu rodzajów zniekształceń mogących sygnalizować uszkodzenie monitora. Norton Utilities 8.0 jest dostępny dla zarejestrowanych użytkowników poprzednich wersji i może być kupiony za cenę poniżej 100 dolarów. W celu uzyskania informacji o wszystkich programach użytkowych firmy Symantec zobacz: http://www.symantec.com/region/reg_eu/product
PC Technician PC Technician, produkowany przez Windsor Technologies, jest jednym z najstarsz\ch na rynku programów diagnostycznych dla komputerów PC. Co za tym idzie, był wielokrotnie zmieniany i stale uaktualniany, by nadążyć za zmianami na rynku PC. PC Technician jest pełnym możliwości, solidnym oprogramowaniem testującym sprzęt oraz dobrym narzędziem przy rozwiązywaniu związanych ze sprzętem problemów. Jak i wiele innych, bardziej czułych programów, PC Technician posiada swój własny system operacyjny, izolujący go od problemów wywoływanych przez konflikty oprogramowania. Program ten jest napisany w assemblerze i posiada bezpośredni dostęp do sprzętu testowanego komputera. Do programu dołączane są także wszystkie złącza zapętlające wymagane do testowania portów równoległych i szeregowych komputera. PC Technician długo był faworytem firm serwisowych wyposażających swych techników właśnie w niego, jako użyteczną pomoc przy rozwiązywaniu problemów. Program
ten, co prawda, został przeznaczony dla profesjonalnych techników serwisu, jednakże jest on prosty w użytkowaniu nawet dla amatora. W dodatku PC Technician kosztuje sporo mniej od wielu innych programów jego klasy. Firmę Windsor Technologies możesz odnaleźć w Internecie pod adresem: http://www.windsortech.com/
QAPlus/FE QAPIus/FE jest jednym z najbardziej zaawansowanych i solidnych programów diagnostycznych spośród tych, które możesz kupić dla komputerów opartych na procesorach 386, 486 lub Pentium, łącznie z PS/2. Dokonywane przez niego testy są niezwykle dokładne, a wykorzystujący menu interfejs pozwala na ich wygodne użytkowanie nawet dla kogoś niezbyt dobrze obeznanego z programami diagnostycznymi dla komputerów domowych. QAPlus/FE posiada również niektóre z najbardziej precyzyjnych testów szybkości komputera, dzięki którym możesz się na przykład dowiedzieć, czy komputer, który właśnie zamierzasz kupić, rzeczywiście jest aż o tyle szybszy od tego, który już posiadasz. Większe znaczenie jednak ma to, że QAPIus/FE dostarczany jest na dyskietkach startowych 3" oraz 5C cala, które (bez względu na to, czy Twój system operacyjny to DOS, OS/2, Windows NT czy też UNIX) mogą być użyte do uruchomienia komputera, gdy problemy są tak poważne, że komputer nie jest już w stanie wykryć twardego dysku. QAP!us/FE możesz zainstalować również na twardym dysku, jeśli tylko używasz DOS-u 3.2 lub nowszego. Wielu użytkowników posiada już mniej rozbudowaną wersję tego programu nazywającą się QAPlus, zorientowaną na wygodę końcowego użytkownika. Podstawowa wersja QAPlus często jest dołączana do sprzedawanych komputerów wielu firm. Co prawda, prosty QAPlus nie jest złym programem, ale przy poważniejszych błędach wersja QAPlus; FE jest dużo lepsza. QAPlus/FE potrafi przetestować płytę główną, pamięć RAM komputera (podstawową i rozszerzoną, zarówno EMS, jak i XMS), kartę graficzną, dysk twardy, stacje dysków, napęd CD-ROM, mysz, klawiaturę, drukarkę, a także porty szeregowe i równoległe (pakiet QAPlus/FE zawiera złącza zapętlające, wymagane do pełnego przetestowania tych portów). Program ten przedstawia również wyczerpujące informacje o konfiguracji komputera, łącznie z listą zainstalowanych części, informacjami o procesorze oraz całkowitej ilości pamięci zainstalowanej w komputerze. Przedstawiane są także wszystkie informacje o przerwaniach -jest to szczególnie przydatne przy instalacji nowej karty rozszerzeń czy też innego dodatku - oraz pełen obraz zawartych w pamięci sterowników urządzeń i innych umieszczonych w niej programów ładowanych poprzez CONFIG.SYS i AUTOEXEC.BAT, równie dobry zresztą, jak wszystkie inne informacje o DOS-ie i przydzieleniu pamięci komputera. QAPlus/FE zawiera również wiele innych narzędzi, adresowanych jednak bardziej do profesjonalistów, niż zwykłych użytkowników komputera. Do tych specjalnych możliwości należy edytor pamięci CMOS, którego można użyć równie dobrze do zmiany daty i czasu, jak i typu dysku twardego; informacje o wielkości zainstalowanej pamięci, jak i inne informacje zawarte w CMOS; debugger portu COM; narzędzie umożliwiające testowanie oraz formatowanie niskiego poziomu dysku twardego; narzędzie testujące stację dysków; edytor plików konfiguracyjnych mogący zostać użyty do zmiany AUTOEXEC.BAT lub CONFIG.SYS; a także program nadzorujący zdalną komunikację komputerów, umożliwiający ludziom z serwisu posiadającym pełny pakiet kontrolny zdalną obsługę Twojego komputera poprzez modem równie dobrze jak inne pliki tekstowe. W przeciwieństwie do niektórych programów diagnostycznych, QAPlus/FE potrafi wykonywać testy burn-in, czyli takie, które zmuszają komputer do ciągłej, wytężonej pracy przez dłuższy czas. Dzięki testom burn-in można stwierdzić, czy któryś z elementów komputera nie mógłby zawieść w trakcie rzeczywistej pracy. Wielu ludzi używa testów burn-in zaraz po zakupie komputera oraz tuż przed upływem terminu gwarancji. Prawdziwe testy burn-in trwają od 48 do 72 godzin, a czasem nawet dłużej. Długość przeprowadzanych przez QAPlus/FE testów burn-in jest konfigurowana przez użytkownika poprzez wy-
branie liczby powtórek poszczególnych testów. Diagsoft możesz odnaleźć w Internecie: http://www.diagsoft.com/
Diagnostyka systemu operacyjnego W wielu przypadkach zakup osobnego oprogramowania diagnostycznego nie musi być konieczny, gdyż Twój system operacyjny już posiada wszystkie potrzebne narzędzia. Windows 95, 98 i NT zawierają bogatą kolekcję programów umożliwiających przeglądanie, monitorowanie i rozwiązywanie problemów ze sprzętem zainstalowanym w systemie. W następnych sekcjach poznamy kilka z tych narzędzi i pełnionych przez nie funkcji.
Microsoft Diagnostics (MSD) Ms-DOS 6.x, Windows 3.1 oraz Windows for Workgroups - wszystkie posiadają proste narzędzie o nazwie Microsoft Diagnostics (MSD). MSD to prosty program dla DOS wyświetlający informacje o sprzęcie zainstalowanym w systemie. Zaprojektowany w 1993 roku do współpracy z tymi starszymi systemami operacyjnymi nie potrafi jednak rozpoznać nowego, obecnie używanego sprzętu, na przykład procesorów Pentium. Choć MSD zyskał sławę programu niewłaściwie rozpoznającego pewne urządzenia, na przykład układy UART portów szeregowych, oraz błędnie podającego wykorzystanie przerwań, to jest jednym z najlepszych programów podających wykorzystanie górnego obszaru pamięci - powszechnego źródła konfliktów pomiędzy kartami rozszerzeń. Jest także całkiem użyteczny przy sporządzaniu dokumentacji wersji BIOS-u, Video-BIOS-u i innych sterowników. Program MSD znajduje się także na instalacyjnej płytce CD Windows 95, choć jest w pewien sposób ukryty i nie jest automatycznie instalowany razem z systemem operacyjnym. Możesz jednak skopiować ten program na twardy dysk i uruchomić go z linii poleceń DOS. Precyzyjniejsze informacje uzyskasz jednak, jeśli najpierw zamkniesz Windows i uruchomisz komputer w trybie MS-DOS.
Menedżer urządzeń w Windows 95 Menedżer urządzeń w Windows 95 jest o wiele bardziej użytecznym narzędziem do inwentaryzacji sprzętu niż program MSD. Gdy w aplikacji System w Panelu sterowania .klikniesz na zakładce Menedżer urządzeń, ujrzysz rozwijalną listę typów urządzeń zainstalowanych w systemie (rysunek 22.1.). Rozwinięcie każdego typu odkrywa informacje o sprzęcie aktualnie zainstalowanym w systemie. Każda pozycja posiada swój arkusz właściwości umożliwiający skonfigurowanie urządzenia, przejrzenie wykorzystywanych zasobów oraz ewentualne zaktualizowanie sterownika Po kliknięciu na przycisku Wyświetl według połączeń lista zostaje posortowana według różnych portów i interfejsów zawartych w komputerze. Inną mało znaną właściwością Menedżera urządzeń jest możliwość dwukrotnego kliknięcia na ikonie Komputer, na górze listy, co prowadzi do okna dialogowego właściwość komputera, pokazanego na rysunku 22.2. W tym oknie możesz przejrzeć przerwani; IRQ, porty I/O, kanały DMA i adresy pamięci występujące w systemie, a także dowie dzieć się, jakie urządzenia z nich korzystają. W przypadkach, kiedy mechanizm Pług and Play nie radzi sobie z automatycznyrr przydzieleniem zasobów, Menedżer urządzeń staje się doskonałym narzędziem rozwią zywania konfliktów sprzętowych. Arkusz właściwości każdego urządzenia
wyświetli zasoby wykorzystywane przez to urządzenie i wskazuje, jakie inne urządzenia już ko rzystają z tych zasobów.
Miernik zasobów w Windows 9x Miernik zasobów uruchamia się jako ikona w obszarze powiadamiania paska zadań. T aplikacja nieustannie monitoruje zasoby systemowe, użytkownika oraz GDI (graphic device interface). Gdy załadujesz więcej programów i otworzysz więcej okien, ikon w obszarze powiadamiania staje się coraz mniejsza, wskazując na kurczenie się dostęp nych zasobów.
Monitor systemu/Monitor wydajności Monitor systemu w Windows 9x oraz Monitor wydajności w Windows NT pełnią podobne funkcje. Oba programy śledzą określone elementy wydajności systemu i wyświetlają je w postaci graficznej, tak jak pokazano na rysunku 22.4. Domyślnie, możesz zdecydować się na wyświetlanie różnych statystyk odnoszących się do jądra systemu menedżera pamięci, systemu plików i innych podstawowych funkcji Jednak oba programy są rozbudowy walne. Zainstalowanie nowych aplikacji i usług może zaowocować dodaniem nowych rodzajów statystyk. Na przykład zainstalowanie klienta NetWare w systemie powoduje dodanie zestawu statystyk odnoszących się do przychodzących i wychodzących danych generowanych przez tego klienta.
Informacje o systemie i Diagnostyka systemu Program Informacje o systemie w Windows 98 jest doskonałym dodatkiem do systemu operacyjnego, dostarczającym ogromnych ilości szczegółowych informacji o sprzęcie i oprogramowaniu zainstalowanym w komputerze, z powodzeniem rywalizującym z innymi programami tego typu (patrz rysunek 22.5). Podobnym, choć wyświetlającym dane w innym formacie programem jest Diagnostyka systemu w Windows NT. Te programy pozwalają na zapisanie, wyeksportowanie lub wydrukowanie podawanych informacji, dzięki czemu przestaje być problemem stworzenie pełnej, bardzo szczegółowej dokumentacji konfiguracji Windows 98 lub Windows NT. Jeśli z powodu awarii dysku lub innego błędu musisz ponownie zainstalować system operacyjny, posiadanie takich informacji może znacznie uprościć cały proces.
Podgląd zdarzeń w Windows NT Podgląd zdarzeń to podstawowe narzędzie do prowadzenia zapisu komunikatów i zdarzeń! systemowych w Windows NT. Jeśli tylko w pewnym obszarze - operacje systemowej ochrona lub wykonywanie aplikacji - wystąpi znaczące zdarzenie, jest zapisywane dol jednego z trzech oddzielnych dzienników.
Programy diagnozujące dyski Wszystkie programu diagnostyczne ogólnego użytku potrafią testować zarówno stacje dysków, jak i dyski twarde. Ponieważ jednak programy te już z założenia przewidziane są do ogólnego użytku, dokonywane przez nie testy dysków nie zawsze są tak drobiazgowe. jak tylko jest to możliwe. Z tego powodu istnieje wiele programów przeznaczonych wyłącznie do diagnostyki i serwisowania dysków. Poniżej opisane są niektóre z najlepszych na rynku programów diagnozujących dyski, opisane jest też, co poszczególne programy mogą dla Ciebie zrobić.
Drive Probe Wiele programów na rynku testuje sprawność stacji dysków za pomocą dyskietki utworzonej lub sformatowanej w testowanej stacji. Program używający tej techniki nie jest w stanie prawidłowo ocenić ustawień stacji dysków. Wymagana do tego jest dyskietka specjalnie utworzona w przetestowanej i skalibrowanej stacji. Ten typ dyskietki może służyć jakc dysk standardowy, względem którego ocenia się kondycję stacji. Accurite, podstawow) producent tych standardowych dysków, pomaga wyznaczać fabryczne specyfikacje stacji dysków. Accurite produkuje obecnie trzy poniższe typy standardowych dysków, używanych do testowania ustawień oraz funkcji stacji dysków: + Cyfrowy dysk diagnostyczny DDD (Digital Diagnostic Disk), * Analogowy dysk ustawień AAD (Analog Alignment Disk), * Dysk diagnostyczny wysokiej gęstości HRD (High-Resohition Diagnostic Disk). Wprowadzony w 1989 roku dysk HRD reprezentuje przełom w testowaniu i ustawianiu stacji dysków. Dysk ten jest precyzyjny do 125 |um -jest to wystarczająca dokładność, by używać jej nie tylko do badania precyzji stacji dysków, ale też i do jej ustawiania. Posiadając oprogramowanie wykorzystujące dysk HRD, możesz ustawić stację dysków, nie posiadając specjalistycznych narzędzi lub oscyloskopu. Jedyne, czego wymaga program i dysk HRD, to kompatybilny z IBM komputer, do którego podłącza się stację. Produkt ten znacząco obniża koszt ustawiania stacji oraz eliminuje większość problemów ze specjalnym ekwipunkiem do testów. Program Disk Próbę firmy Accurite jest zaprojektowany do działania z dyskami HRD (także Accurite). Dzięki wykorzystaniu dysków HRD Drive Próbę jest najdokładniejszym i mającym największe możliwości na rynku programem testującym. Dopóki inne programy nie zaczną wykorzystywać możliwości testowania otrzymywanych dzięki dyskom HRD, będę używał Drive Próbę. Ponieważ oprogramowanie Drive Próbę działa także jako dysk ćwiczebny uczący korzystania z dysków AAD i oscyloskopu, możesz przesuwać głowicę do wybranej ścieżki, wykonując kontrolowane testy.
Disk Manager Disk Manager firmy Ontrack jest obecnie najpełniejszym i oferującym największe możliwości programem do testów i formatowania twardych dysków. Program ten działa z praktycznie każdym twardym dyskiem i kontrolerem na rynku, łącznie z nowszymi typami dysków SCSI oraz IDE. Disk Manager uzyskał nieszczęśliwe przezwisko „zniekształcacz dysków", ponieważ jego wcześniejsze wersje obfitowały w błędy i nie-kompatybilności z komputerami. Pomimo iż te problemy dawno zostały już usunięte, niektórzy z techników nadal nie chcą go używać. W każdym razie obecnie na rynku stacji IDE i SCSI zapotrzebowanie na tego rodzaju oprogramowanie jest ograniczone. Disk Manager umożliwia zarówno testy dysków twardych, jak i ich kontrolera. Równie dobrze mogą zostać przeprowadzone testy ograniczone tylko do odczytu danych, jak i pełne, bazujące na odczycie i zapisie. Jedną z najlepszych opcji programu jest możliwość pełnego, niskopoziomowego formatu. Część formatu niskiego poziomu jest zdolna również do prawdziwego sformatowania większości dysków IDE, wiele programów ma tę możliwość. Ontrack możesz znaleźć w Internecie pod adresem: http://www.ontrack.com/ontrack/products.html
Narzędzia odzyskujące dane Istnieje więcej programów przeznaczonych do odzyskiwania danych, niż do naprawy i rozwiązywania problemów sprzętowych. Programy odzyskujące dane potrafią rozpoznać problemy i naprawić struktury organizacji dysku (sektory startowe, tablice alokacji plików, katalogi) równie dobrze jak pliki i struktury plików (pliki baz danych, pliki arkuszy kalkulacyjnych i inne). Norton Utilities firmy Symantec jest obecnie być może najlepszym na rynku pakietem programów do odzyskiwania danych. Pakiet ten jest bardzo solidny i potrafi automatycznie naprawić większość typów problemów związanych z dyskami. Tym, co powoduje, iż pakiet ten jest jedynym w swoim rodzaju, jest rewelacyjny program Disk Editor. Nie ma aktualnie żadnego innego programu, który byłby równie solidny i miał podobne możliwości w edycji dysku sektor po sektorze. Disk Editor, będący częścią Norton Utilities, umożliwia profesjonalistom bezpośrednią pracę nad każdym sektorem dysku. Niestety, wymaga to olbrzymiego doświadczenia i wiedzy na temat organizacji sektorów i struktur dyskowych. Zawarta w pakiecie dokumentacja jest doskonała i może być bardzo pomocna, jeśli chcesz nauczyć się, jak odzyskiwać dane. Odzyskiwanie danych jest bardzo lukratywną działalnością bardziej zaawansowanych techników. Ludzie wolą zapłacić dużo więcej i odzyskać swoje dane, niż po prostu wymienić dysk twardy.
Norton Utilities zawiera wiele użytecznych modułów automatyzujących nąjbardzie żmudne i wręcz niemożliwe do wykonania przez człowieka procesy odzyskiwania danych Dwoma z tych modułów są Disk Doctor oraz Calibrate, dołączane do Norton Utilities w wersji 8.0 i nowszej, także w wersji dla Windows 95. Oba te programy narzędziowe umożliwiają razem dokonywanie wyczerpujących testów struktur danych i sektorów twardego dysku. Disk Doctor działa zarówno z dyskami twardymi, jak i ze stacjam dysków, program ten testuje zdolność danego urządzenia do działania z systemem, ni którym zostało zainstalowane, łącznie z sektorem startowym dysku, tablicą alokacji plików (FAT), strukturą plików oraz obszarem danych. Calibrate, używany do bardziej inten sywnego testowania obszarów danych dysku, testuje również elektronikę kontrolera.
Calibrate może być także używane do przeprowadzania testów poprawności nośnik dysków IDE, SCSI oraz dysków interfejsu ST-506/412, poprzez zapisywanie dosłowni milionów bajtów danych w każdym sektorze dysku, by zobaczyć, gdzie dane mogą by poprawnie przechowywane, przenosząc następnie dane z sektorów położonych na ska zach nośnika, a na koniec znacząc te sektory w tablicy F AT jako uszkodzone.
Autonomiczny program nazywający się SpinRite, obecnie w wersji 3.1, posiada wiele tych samych cech, co Calibrate, łącznie z przenoszeniem sektorów dysku, i jest szeroko znany jako najlepszy program przenoszący sektory. W każdym razie od czasu ukazania się szybkich kontrolerów oraz dysków fabrycznie formatowanych niskopoziomowo w celu uzyskania lepszej wydajności i optymalnych ustawień, zapotrzebowanie na takie programy, jak Calibrate czy SpinRite, zostało bardzo
ograniczone. Z powodu doskonałego Disk Editora każdemu człowiekowi myślącemu poważnie o zajęciu się odzyskiwaniem danych potrzebna jest kopia Norton Utilities. Wiele innych modułów dołączonych do pakietu jest również bardzo przydatnych, dodatkowo, w ostatnich wersjach pakietu, dołączany jest NDIAGS, będący pełnym programem diagnostycznym dla komputerów PC. Symantec oraz kompletna lista jego produktów znajduje się w Internecie pod adresem: http://www.symantec.com/region/reg_eu/product/
Programy diagnostyczne Shareware aż public-domain Istnieje wiele wspaniałych programów diagnostycznych public-domain (darmowych), diagnozujących problemy z pamięcią, twardymi dyskami, stacjami dysków, monitorami i kartami graficznymi oraz z praktycznie każdą inną częścią komputera. Programy te są doskonałe dla ludzi muszących liczyć się z wydatkami oraz dla tych, którzy nie przeprowadzają częstych operacji rozwiązywania problemów ze sprzętem.
Rozdział 23.
Oprogramowanie systemowe, rozwiązywanie problemów Niniejszy rozdział skupia się na problemach związanych z uszkodzonym lub niekompatybilnym oprogramowaniem komputerów PC. Na początku opisana jest struktura DOS-u oraz sposób, w jaki DOS współpracuje z układami prawidłowo funkcjonującego komputera. Szczególnie interesujące tematy to: * Struktura plików FAT; * Organizacja dysku FAT; * Programy odzyskujące dane i dyski (ich możliwości i zagrożenia). W niniejszym rozdziale poruszone są również dwa inne ważne zagadnienia: pierwszym z nich jest sposób używania oprogramowania rezydującego w pamięci (i rozwiązywanie problemów, które może spowodować), drugim wyróżnienie problemów z oprogramowaniem, mających swe źródło w problemach ze sprzętem. Przy końcu rozdziału poruszana jest tematyka związana z systemami operacyjnymi Windows 95 oraz Windows NT. Można tam znaleźć wszystko, co skrywa się pod pulpitem, opisane zostały także różnice w relacjach pomiędzy sprzętem a systemem operacyjnym Windows lub DOS.
Dyskowy System Operacyjny (DOS) Informacje o DOS-ie mogą wydawać się nie na miejscu w książce traktującej o rozbudowywaniu sprzętu i jego naprawie, ale jeśli zignorujesz DOS i inne oprogramowanie, możesz przeoczyć wiele problemów związanych z komputerem. Najlepsi wśród diagnozujących i rozwiązujących problemy związane z komputerami znają się zarówno na
oprogramowaniu, jak i na sprzęcie. Warto odnotować, że Windows 95 standardowo używa takich samych co DOS struktur dyskowych. Jest to między innymi MBR (Master Boot Record), DBR (Dos Boot Record). FAT (File Allocation Table) oraz system plików. Wprowadzono, co prawda, kilka rozszerzeń struktury systemu plików w celu uzyskania długich nazw, ale to już wszystko. Dopiero wersja OEM OSR2 Windows 95 zawiera 32-bitowy system plików FAT. przełamujący barierę 2 GB wielkości partycji dla DOS i Windows. System plików HPFS (High Perfornuince File System) używany przez OS/2 umożliwia założenie pojedynczej partycji do 8 GB, natomiast NTFS (system plików używany przez Windows NT) umożliwia tworzenie partycji rzędu 2 TB (2 TB = 2000 GB). W niniejszej sekcji zostały opisane podstawy systemu DOS: jego miejsce w architekturze PC, jego komponenty oraz procesy zachodzące przy uruchamianiu komputera. Zrozumienie sposobu, w jaki uruchamia się komputer, może być bardzo pomocne przy diagnostyce związanych z nim problemów. Opisana jest również konfiguracja DOSu - obszar, w którym wielu ludzi doświadcza problemów - system plików używany przez DOS. a także sposób, w jaki DOS zarządza danymi na dysku.
Podstawy systemu operacyjnego DOS jest tylko jednym z wielu elementów stanowiących w sumie komputer. Komputery PC posiadają zróżnicowaną hierarchię oprogramowania, przez cały czas kontrolującą system. Nawet gdy pracujesz z jakimś programem, na przykład edytorem tekstu, w tle zawsze jest uruchomione wiele warstw innych programów. Warstwy te mogą być dokładnie zdefiniowane, ale czasami nie ma j ą. wy raźnych granic. Komunikacja najczęściej występuje tylko pomiędzy sąsiadującymi warstwami, ale istnieją wyjątki od tej zasady. Wiele programów ignoruje usługi oferowane przez warstwę położoną bezpośrednio poniżej i, pomijając pośredników, bezpośrednio komunikuje się z właściwą warstwą. Przykładem może być program komunikujący się bezpośrednio ze sprzętem i w celu uzyskania maksymalnej wydajności wyświetlania obrazu ignorujący DOS oraz algorytmy wyświetlania zawarte w BlOS-ie. Pomimo iż sposób ten jest bardzo wydajny, wiele systemów operacyjnych (na przykład OS/2 i Windows NT) nie pozwala na bezpośredni dostęp do sprzętu. Programy nie stosujące się do tych zasad muszą zostać zmienione, zanim zadziałają w nowych środowiskach. Sprzęt jest najniższym poziomem hierarchii systemu. Poprzez umieszczanie bajtów informacji w odpowiednich portach lub obszarach pamięci komputera możesz kontrolować praktycznie wszystko, co zostało podłączone do procesora. Taki sposób kontroli zasobów jest trudny; używanie go wymaga obszernej i dokładnej wiedzy o architekturze komputera. Przy pisaniu oprogramowania komunikującego się w ten sposób ze sprzętem wymagane jest podawanie bardzo dużej ilości detali. Polecenia systemowe tego poziomu wydaje się za pomocą języka maszynowego (binarnych grup informacji przekazywanych bezpośrednio do mikroprocesora). Instrukcje języka maszynowego mają ograniczoną funkcjonalność: trzeba użyć wielu z nich, by przeprowadzić nawet najmniejszą część użytecznej pracy. Tak duża ilość wymaganych instrukcji nie jest tak naprawdę problemem, ponieważ instrukcje te wykonywane są bardzo szybko i w bardzo niewielkim stopniu uszczuplają zasoby komputera Programiści mogą ręcznie zapisywać kod zawierający instrukcje w języku maszynowym, lecz zazwyczaj, w celu uproszczenia sobie pracy, używaj ą narzędzia- asemblera. Zapisują program, używając edytora, a następnie za pomocą asemblera konwertują edytowany plik na czysty język maszynowy. Polecenia asemblera nadal są bardzo niskiego poziomu i efektywne ich używanie wymaga od programisty olbrzymiego doświadczenia. Nikt nie pisze już programów bezpośrednio w języku maszynowym; spośród obecnie używanych asembler jest językiem najniższego poziomu. Wszystkie wersje asemblera tracą obecnie
przychylność programistów, ponieważ do jego używania wymagana jest bardzo duża wiedza, a wykonanie nawet bardzo prostego programu wymaga olbrzymiego nakładu pracy. Innym powodem tracenia przez asembler popularności jest brak możliwości przenoszenia pomiędzy komputerami napisanych w nim programów. Gdy uruchamiasz komputer PC, kontrolę nad nim przejmuje seria programów w kodzie maszynowym, czyli ROM BIOS. Ten rodzaj programów, zawsze obecnych w systemie, porozumiewa się (w kodzie maszynowym) ze sprzętem. BIOS akceptuje bądź interpretuje polecenia otrzymywane od programów znajdujących się powyżej niego w hierarchii systemu, a następnie tłumaczy je na kod maszynowy akceptowany przez mikroprocesor. Polecenia na tym poziomie najczęściej nazywane są przerwaniami lub usługami. Programista może używać niemalże każdego języka, by przesyłać te instrukcje do BlOS-u. DOS składa się sam w sobie z wielu elementów. Po uruchomieniu dołącza się do BIOS-u, stanowiąc od tego momentu jego rozszerzenie. Dlatego właśnie z poziomu DOS-u dostępnych jest więcej przerwań i usług, które mogą zostać wykorzystane w innych programach. DOS staje się pośrednikiem oprogramowania wyższego poziomu (na przykład jego aplikacji) w komunikacji z BlOS-em komputera PC. Ponieważ udostępniane programistom przez DOS przerwania i usługi stanowią rozszerzenie przerwań i usług oferowanych przez BIOS, zostaje wyeliminowane wiele z „powtórnych wynalezień koła" w algorytmach programów. Na przykład DOS oferuje bogaty wybór funkcji potrafiących otworzyć, zamknąć, usunąć, stworzyć, zmienić nazwę oraz przeprowadzić wiele innych działań na plikach. Gdy programista chce dołączyć niektóre z tych funkcji do swojego programu, może zlecić DOS-owi wykonanie większości pracy. Dzięki standardowemu zestawowi funkcji używanych przez aplikacje do odczytu i zapisu danych na dysku możliwe stało się odzyskiwanie danych. Wyobraź sobie, jak trudne byłoby pisanie programów i używanie komputera, gdyby każdy program oferował swój własny interfejs operacji dyskowych wraz z firmowym systemem plików i katalogów. Każdy program wymagałby swojego własnego, specjalnego dysku. Na szczęście, DOS udostępnia udokumentowany standard przechowywania plików, dzięki czemu te same algorytmy odzyskujące dane mogą być używane dla każdej aplikacji. Dzięki temu można mieć jakieś wyobrażenie, co w danej chwili znajduje się na dysku.
Inną podstawową funkcją DOS-u jest wgrywanie i uruchamianie innych programów. Dzięki tej funkcji DOS staje się powloką, na której mogą być wykonywane inne programy. DOS udostępnia funkcje i środowisko wymagane przez inne programy - łącznie ze środowiskiem operacyjnym, takim jak Windows 3 .x . Windows 95 łączy środowisko DOS i Windows w bardziej jednolity system operacyjny. Z poziomu Windows 95 nadal możesz przełączyć się do DOS-u, jednakże obecnym standardem systemu operacyjnego jest graficzny interfejs użytkownika.
Systemowy BIOS Traktuj systemowy BIOS jako formę wymuszającego kompatybilność kleju umieszczonego pomiędzy sprzętem a systemem operacyjnym. Dlaczego ten sam system operacyjny DOS może zostać uruchomiony na oryginalnym IBM PC, a także na najnowszym kom-0 puterze z procesorem Pentium - dwóch zupełnie różnych platformach sprzętowych Gdyby DOS bezpośrednio komunikował się ze sprzętem, byłby bardzo od niego zależny. Zamiast tego IBM wprowadził standard usług i funkcji, które powinien wykonać każdy komputer. Następnie zakodował je jako programy i umieścił w BlOS-ie. Każdy komputer posiada dostosowany do niego BIOS, porozumiewający się bezpośrednio ze sprzętem i dokładnie wiedzący, jak przeprowadzić każdą, specyficzną dla danego sprzętu operację. Dzięki tej konwersji możliwe stało się napisanie systemu operacyjnego stanowiącego standardowy interfejs dla programów. Co ważniejsze, dokonywana przez BIOS konwersja poleceń umożliwi jego działanie na wielu różnych typach komputerów. Każda
aplikacja pisana pod standardowy interfejs systemu operacyjnego uruchomi się na każdym komputerze obsługiwanym przez dany system operacyjny. Rysunek 23.1 pokazuje, w jaki sposób, dzięki konwersjom dokonywanym przez BIOS dostosowany do określonego komputera, dwie bardzo różniące się od siebie platformy sprzętowe nadal udostępniają standardowy interfejs dla systemu operacyjnego. Ponieważ standardowy interfejs dostarczany przez BIOS się nie zmienia, na dwóch różnych platformach sprzętowych opisanych na rysunku 23.1 nie tylko można uruchomić tę samą wersję DOS-u, ale także te same, pisane pod DOS aplikacje. Dobrze zapamiętaj, że BIOS zawarty w ROM-ie zależy w bardzo dużym stopniu od komputera i aktualnie nie jest możliwe uruchomienie BIOS-u przeznaczonego do jednego komputera na innym. Uaktualnienia BIOS-u muszą pochodzić ze źródła gruntownie rozumiejącego budowę płyty głównej, na której ma być zainstalowany układ, ponieważ ROM musi zostać dostosowany do określonego sprzętu. tysunek 23.1. 'rzedstawienie U AAAAA TTTTT kł oziomów orogramowania Niestandard komputera owy interfejs ch godnych z IBM BIOS zawarty w TTT ROM-ie Standardo wy n n interfejs MSIII DOS Aplikacja
ttt Standardo
kfad y
U
ko
BIOS zawarty w ROM-ie
MS-DOS
Aplikacja
Część DOS-u pokazana na rysunku 23.1 jest częścią systemu lub inaczej jądrem DOS-u. Obecność jądra uwidacznia się fizycznie w dwóch plikach systemowych obecnych na każdym DOS-owym dysku startowym. Te ukryte pliki systemowe nazywają się IO.SYS oraz MSDOS.SYS w MS-DOSie i wersjach DOS-u licencjonowanych przez Microsoft dla producentów oryginalnego wyposażenia (OEM), lub IBMIO.COM oraz IBMDOS.COM w PC-DOS-ie IBM-a. W systemie Windows 95 nadal istnieją pliki IO.SYS oraz MSDOS.SYS, lecz mają nieco inną funkcję. Plik IO.SYS zawiera aktualnie cały kod znajdujący się w obu plikach, natomiast MSDOS.SYS jest plikiem tekstowym, zawierającym ustawienia konfiguracji uruchamiania się komputera. Te dwa pliki systemowe są zazwyczaj pierwszymi plikami w katalogu dysku startowego. Rysunek 23.1 reprezentuje uproszczony obraz systemu; istnieją pewne subtelne, lecz ważne różnice. W przypadku idealnym programy aplikacji są odizolowane od sprzętu przez BIOS i DOS, ale w rzeczywistości wielu programistów pisze część swoich programów tak, by nawiązywały bezpośredni kontakt ze sprzętem, omijając BIOS i DOS. Tak napisany program może działać jedynie z określonymi układami, nawet jeśli DOS i BIOS udostępniają standardowy interfejs komunikacji nieznanego programiście sprzętu. Programy zaprojektowane do bezpośredniej komunikacji ze sprzętem pisane są w celu poprawienia wydajności ich działania. Na przykład wiele programów bezpośrednio komunikuje się z kartami graficznymi, by poprawić wydajność odświeżania obrazu. Te aplikacje często posiadają program instalacyjny, który wymaga, byś dokładnie podał, jakie układy występują w Twoim komputerze, dzięki czemu program może wgrać odpowiednie, zależne od sprzętu procedury działania aplikacji. Dodatkowo, niektóre programy użytkowe, by wykonać swe funkcje, koniecznie muszą bezpośrednio komunikować się ze sprzętem. Na przykład program niskopoziomowo formatujący
dysk twardy musi bezpośrednio porozumiewać się z kontrolerem dysku twardego. Takie programy są bardzo zależne od określonego kontrolera lub jakiegoś rodzaju kontrolerów. Innym typem oprogramowania zależnego od sprzętu jest menedżer pamięci umożliwiający postrzeganie przez DOS pamięci XMS jako EMS. Te sterowniki działają dzięki bezpośredniemu dostępowi do procesora i wykorzystywaniu jego specjalnych funkcji. Choć może nie widać tego na pierwszy rzut oka, również i DOS w niektórych przypadkach bezpośrednio komunikuje się ze sprzętem. DOS-owy system plików może zawierać sterowniki niskiego poziomu, zaprojektowane, by wspierać lub zastępować kod BIOS-u w komputerze. Gdy DOS uruchamia się, określa typ komputera oraz informację ID BIOS-u. Następnie wgrywa różniące się od siebie fragmenty kodu, zależne od wykrytej wersji ROM-u. Na przykład w kodzie DOS-u IBM występują cztery różne sekcje kodu dotyczącego twardych dysków, choć ładowana jest tylko jedna z nich. Wziąłem pojedynczą dyskietkę startową DOS-u, zawierającą tylko pliki systemowe (oraz COMMAŃD.COM i CHKDSK.COM), a następnie uruchomiłem z niej komputery AT i XT. oba z identyczną ilością pamięci – 640 kB. Po uruchomieniu DOS-u CHKDSK wykazał różniące się wielkości wolnej pamięci - widać dzięki temu, że DOS nie zajmuje tej samej ilości pamięci na różnych komputerach. Podsumowując, DOS, BIOS oraz sprzęt są o wiele bardziej ze sobą powiązane, niż wydaje się to większości ludzi.
Składniki DOS-u DOS zawiera dwa podstawowe składniki: system wejścia/wyjścia (I/O) oraz powłokę. System I/O zawiera podstawowe programy, które rezydują w pamięci podczas pracy komputera: programy te wgrywane są jako pierwsze przy uruchamianiu się DOS-u. System I/O znajduje się w plikach 1O.SYS oraz MSDOS.SYS (lub IBMIO.COM i IBMDOS.COM) ukrytych na dyskach startowych DOS-u. Dokładne ich nazwy nie mają znaczenia, ponieważ spełniają one tę samą funkcję we wszystkich wersjach DOS-u. Interfejs użytkownika, lub powłoka, znajduje się w pliku COMMAND.COM, który również jest wgrywany podczas standardowego uruchamiania się systemu. Powłoka jest częścią DOS-u, poprzez którą użytkownik komunikuje się z systemem. Udostępnia ona znak zachęty DOS-u oraz umożliwia dostęp do jego wewnętrznych poleceń, jak na przykład COPY i DI R. Poniższa sekcja opisuje bardziej szczegółowo system I/O DOS-u, by pomóc Ci rozpoznawać i rozwiązywać problemy związane bardziej z DOS-em niż ze sprzętem. Jest tu także wyjaśnione, w jaki sposób DOS przydziela miejsce plikom na dysku. Poniższa sekcja opisuje dwa pliki tworzące system I/O: IO.SYS (lub IBMIO.COM) oraz MSDOS.SYS (lub IBMDOS.COM), jak również interpreter poleceń DOS-u (COMMAND.COM).
IO.SYS (lub IBMBIO.COM) IO.SYS jest jednym z ukrytych plików znajdujących się na każdym dysku
startowym. Plik ten zawiera programy niskiego poziomu, bezpośrednio komunikujące się z urządzeniami i BlOS-em komputera. Podczas uruchamiania się sektor startowy dyskietki z DOS-em wczytuje ten plik do pamięci podstawowej i umożliwia mu przejęcie kontroli nad systemem. Cały ten plik, poza częścią inicjującą system, pozostaje w pamięci podczas normalnej pracy systemu. Aby można było uruchomić komputer z dysku, IO.SYS lub jego odpowiednik musi być umieszczony jako pierwszy w strukturze plików oraz musi zajmować co najmniej pierwszy klaster (cluster) na dysku (klaster o numerze 2). Reszta tego pliku może znajdować się w dowolnych innych klastrach, bez względu na ich fizyczne położenie na dysku. Plik ten jest zazwyczaj zaznaczony jako Ukryty, Systemowy oraz Tylko do odczytu. Jest on umieszczany na dysku przez polecenie FORMAT (z parametrem /S) lub też polecenie SYS.
MDOS.SYS (lub IBMDOS.COM) MSDOS.SYS, jądro DOS-u, zawiera programy nadzorujące współpracę DOS-u z dyskiem. Algorytmy zawarte w tym pliku pozwalają na odczyt DOS-owych dysków i programów obsługujących urządzenia systemowe. MSDOS.SYS jest wgrywany do pamięci podstawowej podczas uruchamiania się systemu z sektora startowego dyskietki DOS. Podczas zwykłej pracy systemu pozostaje w pamięci.
Tworzenie dysku startowego Zapisywanie plików systemowych DOS na dysk twardy lub dyskietkę nie polega wyłącznie na zwykłym kopiowaniu plików. Aby stworzyć dysk startowy, musisz użyć DOS-owych programów FORMAT.COM lub SYS.COM. Gdy uruchomisz FORMAT z parametrem /S, na przykład:
FORMAT A: /S Program przeprowadzi zwykłe formatowanie dysku, a następnie z dysku użytego do uruchomienia komputera skopiuje pliki IO.SYS, MSDOS.SYS i COMMAND.COM, umieszczając je we właściwych miejscach i ustawiając odpowiednie atrybuty. Program SYS.COM kopiuje te same pliki i ustawia te same atrybuty, jednak odbywa się to bez wcześniejszego formatowania dysku. Aby SYS.COM mógł stworzyć dysk startowy, na dysku lub dyskietce musi występować odpowiednia ilość miejsca na pliki. Windows 9x także posiada programy FORMAT.COM i SYS.COM, ale zapewnia również alternatywę w postaci aplikacji Windows. Gdy w eksploratorze Windows wybierzesz jakiś dysk i w jego menu kontekstowym wybierzesz polecenie Formatuj, pojawi się okno dialogowe dające możliwość skopiowania plików systemowych lub sformatowania dysku. Możesz także
stworzyć dysk startowy, uruchamiając w Panelu sterowania aplikację Dodaj/Usuń programy i postępując zgodnie z informacjami zawartymi na zakładce Dysk startowy. MSDOS.SYS lub jego odpowiednik pierwotnie musiał być umieszczony jako drugi wpis w głównym katalogu każdego dysku startowego. Plik ten najczęściej zaznaczony jest jako Ukryty, Systemowy oraz Tylko do odczytu. Jest on zazwyczaj umieszczany na dysku przez polecenie FORMAT /S lub SYS. Obecnie nie istnieją specjalne wymagania co do fizycznej pozycji tego pliku na dysku.
Powłoka lub interpreter poleceń (COMMAND.COM) COMMAND.COM, interpreter poleceń DOS-u, jest częścią systemu, z którą użytkownik najczęściej ma do czynienia. Polecenia mogą być rozróżniane ze względu na pełnioną funkcję, jednak DOS IBM dzieli je na dwa typy, w zależności od tego, w jaki sposób polecenia te są dostępne: jako rezydujące lub jako chwilowe. Polecenia rezydujące są wbudowane w COMMAND.COM i dostęp do nich można uzyskać zawsze, jeśli tylko występuje znak zachęty DOS-u. Generalnie, są to proste, często używane polecenia, jak na przykład CLS lub DIR. Rezydentne polecenia wykonywane są bardzo szybko, ponieważ zostały one już wcześniej umieszczone w pamięci. Inaczej mówiąc, programy te rezydują w pamięci. Jeśli zajrzysz do definicji poleceń w podręczniku DOS-u, odnajdziesz tam znaczek informujący, czy dane polecenie jest rezydentne, czy też chwilowe. Dzięki temu możesz określić, co jest wymagane do wykonania określonego polecenia. Prostą zasadą jest to, że w trakcie korzystania z interpretera poleceń DOS-u wszystkie rezydentne polecenia są gotowe do błyskawicznego wykonania, bez dogrywania dodatkowych plików z dysku. Polecenia rezydentne często nazywane są także poleceniami wewnętrznymi. Polecenia, których kod uruchamiany jest z dysku, nazywane są zewnętrznymi lub chwilowymi, często bywają także nazywane programami użytkowymi.
Polecenia chwilowe nie rezydują w pamięci komputera, w związku z czym instrukcje wykonania polecenia muszą znajdować się na dysku. Ponieważ takie instrukcje umieszczane są w pamięci komputera jedynie na czas ich wykonywania, a następnie używana przez nie pamięć jest zwalniana, nazywane są poleceniami chwilowymi. Większość poleceń DOS-u jest chwilowa; gdyby nie to, DOS wymagałby dużo większej ilości pamięci. Polecenia chwilowe są rzadziej używane i uruchamiają się dłużej niż polecenia rezydentne, ponieważ zanim zaczną się wykonywać, muszą zostać odnalezione i umieszczone w pamięci. Chwilowe polecenia DOS-u przybrały formę indywidualnych programów (na przykład FORMAT.COM czy też XCOPY.COM) umieszczonych w katalogu domowym DOS-u (najczęściej C:\DOS). Większość plików wykonywalnych działa na tej samej zasadzie co chwilowe polecenia DOS-u. Instrukcje polecenia muszą zostać umieszczone na dysku. Są one
umieszczane w pamięci tylko na czas wykonywania się programu, a po jego zakończeniu są z niej usuwane.
Procedura poszukiwania plików przez DOS Jednym z najczęściej występujących błędów DOS-u jest komunikat złe polecenie lub nazwa pliku (Bad command or filename), występujący, gdy usiłujesz wydać polecenie, którego DOS nie potrafi wykonać. Błąd ten może występować z różnych powodów, a próby jego rozwiązania powinieneś rozpocząć od najwyższego poziomu, samego oprogramowania, zanim zaczniesz podejrzewać uszkodzenie sprzętu.
Zawsze gdy wydajesz polecenie lub uruchamiasz program, DOS usiłuje odnaleźć instrukcje niezbędne do uruchomienia danego programu, szukając ich w różnych miejscach, w ściśle określonej kolejności. Instrukcje tworzące polecenie lub program umieszczone są w jednym lub większej ilości plików. Pliki, które mogą zostać uruchomione, posiadają jedno z trzech rozszerzeń: COM (plik poleceń), EXE (plik wykonywalny) lub BAT (zbiór poleceń). Pliki z rozszerzeniem COM lub EXE to programy napisane w kodzie maszynowym; pliki z rozszerzeniem BAT zawierają tekst ASCII, precyzujący serię poleceń oraz instrukcji udostępnianych przez DOS w plikach wsadowych. DOS usiłuje odnaleźć pliki wykonywalne w aktualnym katalogu oraz katalogach określonych w poleceniu PATH.
Inaczej mówiąc, jeśli wpiszesz kilka znaków, jak na przykład WIN, a następnie naciśniesz ENTER, DOS spróbuje znaleźć uruchamialny plik nazywający się WIN, przeprowadzając dwu- lub trójpoziomowe poszukiwanie instrukcji programu (pliku). Jego pierwszym krokiem będzie sprawdzenie, czy polecenie nie rezyduje w COMMAND.COM, a w razie jego odnalezienia, uruchomienie wgranego już wcześniej do pamięci programu. Jeśli polecenie nie jest rezydentne, DOS sprawdza, czy w aktualnym katalogu istnieje plik o nazwie WIN z rozszerzeniem COM, EXE lub BAT (w tej właśnie kolejności), a następnie uruchamia pierwszy odnaleziony plik spełniający te kryteria. W związku z tym, jeśli w katalogu są umieszczone dwa pliki nazwane WIN.COM oraz WIN.BAT, w odpowiedzi na polecenie WIN zawsze będzie uruchamiany WIN.COM.
Jeśli polecenie nie jest rezydentne i nie został odnaleziony plik o odpowiedniej nazwie, DOS zaczyna go poszukiwać w każdym z katalogów sprecyzowanych w poleceniu PATH. Robi to w trzech krokach, za każdym razem dodając inne z opisanych wcześniej rozszerzeń plików wykonywalnych. Na koniec, jeśli zawiodą wszelkie próby zlokalizowania polecenia, DOS wyświetla komunikat o błędzie: złe polecenie lub nazwa pliku (Bad command or filename). Jak widać, komunikat tego błędu może być mylący. Niezdolność DOS-u do wykonania polecenia z całą pewnością znajdującego się na dysku może wydać Ci się co najmniej zagadkowa i
możesz zacząć podejrzewać dysk o wewnętrzne uszkodzenia, podczas gdy problem pojawia się dlatego, że instrukcja polecenia nie znajduje się w przeszukiwanych obszarach dysku.
Wyobraź sobie, że podczas korzystania z DOS-u wpiszesz polecenie XYZ i naciśniesz ENTER. DOS zacznie poszukiwać instrukcji programu XYZ. Jeśli uda mu sieje odnaleźć, program zacznie się uruchamiać w ciągu najbliższych kilku sekund. Jeśli DOS nie potrafi odnaleźć odpowiednich instrukcji, na ekranie pojawia się komunikat błędu. Poniżej zostało szczegółowo opisane postępowanie DOS-u:
1.DOS sprawdza, czy polecenie XYZ jest jednym z wewnętrznych, rezydentnych poleceń, których kod znajduje się już w pamięci. Polecenie XYZ nie jest rezydentne.
2.DOS sprawdza, czy w aktualnym katalogu bądź na aktualnym dysku istnieje plik o nazwie XYZ.COM, następnie XYZ.EXE, a na końcu XYZ.BAT.
3.DOS sprawdza, czy istnieje zmienna środowiskowa PATH. Jeśli jej nie ma, poszukiwanie pliku zostaje zakończone. Jeśli jest, DOS przeszukuje każdy z umieszczonych w zmiennej PATH katalogów, aż do odnalezienia pierwszego pliku o nazwie XYZ.COM, XYZ.EXE lub XYZ.BAT (w tej właśnie kolejności). Choć w Twojej zmiennej środowiskowej PATH występuje wiele katalogów, DOS nie jest w stanie odnaleźć w żadnym z nich odpowiedniego pliku.
4.
Poszukiwanie zostaje zakończone, DOS generuje komunikat złe polecenie
lub nazwa pliku (Bad command or filename).
Jeśli chcesz, by ta procedura odnajdowania i uruchamiania pliku została ukończona pomyślnie, musisz upewnić się, że plik uruchamianego programu lub polecenia znajduje się w aktualnym katalogu bieżącej stacji. Innym sposobem jest sprecyzowanie w zmiennej środowiskowej PATH stacji i katalogu, w którym znajduje się program. Często spotykaną praktyką jest umieszczenie wszystkich plików prostszych poleceń lub programów użytkowych w jednym katalogu i ustawienie zmiennej PATH tak, by wskazywała na ten katalog. Każdy z tych programów (lub poleceń) jest wówczas dostępny przez wpisanie jego nazwy, tak samo jakby był poleceniem rezydentnym. Ten sposób daje dobre wyniki tylko przy prostszych poleceniach i programach użytkowych. Większe aplikacje często posiadają wiele odrębnych plików i mogą mieć problemy z ich załadowaniem, jeśli są wywoływane z innego katalogu lub stacji
poprzez zmienną PATH. Dzieje się tak dlatego, że zmienna PATH nie jest wykorzystywana przy wgrywaniu plików przez aplikacje, w związku z czym uruchamiana aplikacja nie jest w stanie odszukać swoich zewnętrznych plików z danymi i ustawieniami.
Użytkownicy komputerów posiadających twarde dyski instalują zazwyczaj wszystkie polecenia chwilowe i programy użytkowe w odrębnych podkatalogach, a następnie ustawiają zmienną PATH tak, by wskazywała na te katalogi. PATH jest po prostu listą katalogów i podkatalogów sprecyzowanych w pliku AUTOEXEC.BAT, która mówi DOS-owi, gdzie powinien poszukiwać plików, których nie znalazł w aktualnym katalogu. Zmienna PATH na przykładowym twardym dysku może wyglądać następująco:
PATH=C:\DOS;C:\BAT;C:\UTILS;
W powyższym przykładzie wszystkie z pomocniczych programów dołączanych do systemu operacyjnego DOS powinny być natychmiastowo odnalezione, ponieważ zmienna PATH zawierała C:\DOS.
Długość zmiennej PATH nie może przekroczyć 128 znaków, (łącznie z dwukropkami, średnikami oraz ukośnikami). W rezultacie tego ograniczenia nie możesz ustawić zmiennej PATH tak, by zawierała wszystkie ważne katalogi, jeśli ich nazwy w sumie zajmują więcej niż 128 znaków.
Możesz również definitywnie skrócić procedurę poszukiwania plików przez DOS, jeśli wpiszesz ścieżkę dostępu do pliku, zamiast podawać tylko jego nazwę. Na przykład zamiast dodawania C:\DOS do zmiennej PATH i wpisywania polecenia:
C:\>CHKDSK
możesz wpisać pełną nazwę programu:
C: \>DOS\CHKDSK.COM
Ostatnie polecenie natychmiastowo odnajduje i uruchamia program CHKDSK, nie przeszukując aktualnego katalogu i innych, zdefiniowanych w zmiennej PATH. Ta metoda uruchamiania programów znacznie przyspiesza ich odnalezienie i uruchomienie. Można to szczególnie dobrze wykorzystać przy przyspieszaniu działania plików wsadowych DOS-u. Sposób ten pozwala również na całkowicie pewne wyeliminowanie zmiennej PATH jako źródła komunikatu Nieprawidłowe polecenie.
Wersje DOS-u W ciągu ostatnich kilkunastu lat powstało wiele doskonałych wersji DOS-u, różnych producentów. IBM wydał wersję 1.0 swego systemu operacyjnego w 1981 roku. ale od wersji 3.x Microsoft również rozpoczął wydawać swój własny DOS, zazwyczaj używając takiej samej jak IBM numeracji wersji. Wczesne wersje DOS-u bywały często dostosowane do specyficznej konfiguracji wybranych komputerów. IBM, Compaą i inni producenci markowych komputerów chcieli posiadać swoje własne wersje DOS-u (tworzone przez IBM lub Microsoft), zaprojektowane tak, by działały tylko na ich komputerach. Zazwyczaj nie mogłeś uruchomić DOS-owego komputera IBM, używając dyskietki startowej DOS Compaqa i uzyskać pełnej funkcjonalności działania systemu.
DOS 5.x Od czasu zrealizowania przez Microsoft DOS-u 5.0 sytuacja zmieniła się radykalnie. DOS 5 był pierwszą wersją systemu operacyjnego, która trafiła na półki sklepów. Wersja 5.0 DOS-u, zarówno IBM-a, jak i Microsoftu, działała na niemal każdym komputerze i cieszyła się dużą popularnością.
DOS 5 oferował znacznie ulepszoną kontrolę pamięci i oferował wiele nowych możliwości, dzięki czemu użytkownicy nie musieli polegać na oprogramowaniu z drugiej ręki. Do dziś niektórzy ludzie nadal używają DOS-u 5 i nie mają zamiaru uaktualniać go do wersji 6, twierdząc że jest ona tylko trochę rozszerzona i nie oferuje żadnych znaczących ulepszeń. W każdym razie, nie ma powodu, dla którego jakakolwiek wersja DOS-u poniżej 5.0 powinna być używana na jakimkolwiek komputerze (nie licząc egzemplarzy muzealnych, zachowanych, by ukazać, jak wyglądały oryginalne wersje komputerów).
IBM i MS DOS 6.xx Po DOS-ie 5.0 pojawiło się wiele różnych wersji DOS-u 6.xx, pochodzących zarówno z firmy Microsoft, jak i IBM. Oryginalna wersja MS DOS 6.0 pochodziła z Microsoftu. Jedną z nowych możliwości wersji 6.0 była kompresja dysku DoubleSpace. Nieszczęśliwie, DoubleSpace miało pewne problemy z prawidłowym działaniem na wielu konfiguracjach komputerów i z wieloma urządzeniami. W międzyczasie IBM zakupił od Microsoftu DOS 6.0, uaktualnił go, poprawiając wiele małych błędów, usunął kompresję dysku i zaczął sprzedawać jako IBM DOS 6.1. Microsoft miał wiele problemów z kompresją dysków DoubleSpace i stworzył wersję 6.2 jako darmową aktualizację poprawiającą błędy.
Microsoft został oskarżony przez Stacker Corporation o złamanie ich praw autorskich do algorytmu kompresji zastosowanej w ich programach. Microsoftowi udało się załatwić sprawę polubownie, nie wcześniej jednak, nim usunął możliwość kompresji z DOS-u 6.2. Okrojona o kompresję wersja została wydana jako DOS 6.21. Microsoft szybko opracował własny, nie naruszający praw autorskich algorytm kompresji i zastosował go w programie DoubleSpace, który został dołączony do wersji 6.22 DOS-u, różniącej się od poprzedniej wersji jeszcze tylko kilkoma drobnymi poprawkami błędów. IBM pominął numer wersji 6.2 i zrealizował DOS 6.3 (obecnie nazywany PC DOS), do którego dołączony był inny typ programu kompresującego niż ten, którego używał Microsoft. Dzięki pominięciu oprogramowania DoubleSpace IBM uniknął błędów i problemów z legalnością napotkanych przez Microsoft. Uaktualniona wersja DOS-u IBM zawierała również zaawansowane polecenia PMCIA i zarządzania energią. Prace nad rozwojem DOS-u jako samodzielnego oprogramowania systemowego zostały definitywnie zakończone wersjami MS DOS 6.22 oraz PC DOS 7. Jednak DOS żyje nadal - systemy Windows, zarówno 95, jak i 98, bazują w dużej mierze na rozwiązaniach DOS-u i w dalszym ciągu go zawierają- choć nie w wersji 6.22, ale nowszej. Programy diagnostyczne, jak MSD, raportują odpowiednio DOS 7 dla Windows 95 oraz DOS 7. l O dla Windows 98.
Potencjalne problemy z uaktualnianiem DOS-u. Wiesz już, że systemowe pliki DOS-u mają szczególne wymagania, co do położenia na dysku. Czasem te specjalne wymagania powodują problemy przy próbie uaktualnienia DOS-u.
Jeśli przystąpiłeś do uaktualnienia DOS-u do nowszej wersji, musisz użyć polecenia DOS: SYS, by zapisać na dysku nowe, właściwe dla nowej wersji pliki systemowe. Polecenie SYS przekopiuje istniejące pliki systemowe (umieszczone na dyskietce startowej z atrybutami Ukryty, Systemowy oraz Tylko do odczytu) na odpowiednie pozycje w dysku docelowym, nadając im prawidłowe nazwy i atrybuty. Polecenie COPY nie kopiuje plików ukrytych lub systemowych (nie umieści również plików w odpowiednich miejscach dysku, jeśli w celu umożliwienia przekopiowania ich tym poleceniem zmienisz im atrybuty). Dodatkowo, polecenie SYS podczas kopiowania plików systemowych z jednego dysku na drugi uaktualnia także sektor startowy dysku docelowego, dzięki czemu sektor ten jest prawidłowy dla nowej wersji DOS-u. Gdy wykonasz polecenie SYS, najczęściej uzyskasz jeden z dwóch poniższych komunikatów:
System transferred lub No room for system on destination disk
Jeśli zanim spróbowałeś zapisać na dysku pliki systemowe, były już na nim zapisane jakieś dane, polecenie SYS DOS-u 3.3 lub wcześniejszego prawdopodobnie nie powiedzie się, ponieważ nie potrafi ono przemieszczać plików na dysku, a mogą one zajmować miejsce, w którym powinny znaleźć się pliki systemowe. Ponieważ polecenie SYS DOS-u 4.0 i późniejszych potrafi już przemieszczać pliki, w nowszych wersjach DOS-u błąd ten zdarza się znacznie rzadziej.
Niektórzy użytkownicy myślą, że komunikat No room (brak miejsca) jest spowodowany tym, iż pliki systemowe nowszej wersji DOS-u są zawsze większe niż wersji starszej i w związku a tym, nie mieszczą się już na pozostałym na dysku wolnym miejscu. Inni z użytkowników wierzą, że polecenie nie wykonało się, ponieważ wolne miejsce na początku dysku nie mogło być udostępnione plikom systemowym bez przenoszenia istniejących już na dysku danych. Oba te poglądy są błędne. Polecenie SYS nie wykonuje się w tych przypadkach poprawnie, ponieważ usiłujesz zainstalować na dysku pliki systemowe DOS-u, których nazwy różnią się od plików już na dysku istniejących. Nie ma zwykłego powodu, dla którego polecenie SYS nie wykonałoby się poprawnie przy uaktualnianiu dysku, na którym znajdują się już pliki systemowe o tych samych nazwach.
Pliki systemowe mogą być umieszczone właściwie w jakimkolwiek obszarze twardego dysku, nie licząc pliku IO.SYS (lub jego odpowiednika), którego pierwszy klaster musi być również pierwszym klastrem dysku. Dopóki warunek ten jest spełniony, pliki IO.SYS oraz MSDOS.SYS mogą być fragmentowane i umieszczone gdziekolwiek na dysku i nie ma to żadnego wpływu na uruchamianie poleceń zaimplementowanych w IO.SYS. Jedynym dodatkowym warunkiem jest to, że plik IO.SYS musi być pierwszym, a MSDOS.SYS drugim wpisem w strukturze katalogów.
DOS 4.0 i wersje późniejsze Ponieważ pliki systemowe muszą zajmować zarówno pierwszy klaster dysku (klaster 2), jak i pierwsze dwa wpisy w strukturze głównego katalogu, plik IO.SYS w wersji DOS-u 4.0 i późniejszych automatycznie przenosi wszystkie pliki nie będące plikami systemowymi, a zajmujące dwie pierwsze pozycje w strukturze katalogów, do innych, wolnych pozycji głównego katalogu. Polecenie SYS przenosi również do innego klastra część jakiegokolwiek obcego pliku zajmującą pierwszy klaster dysku. W analogicznym wypadku polecenie SYS wcześniejszych wersji DOS-u nie wykona się, żądając od użytkownika poprawienia ustawień dysku.
Polecenie SYS DOS-u 5.0 i 6.0 posuwa się o krok dalej, zastępując stare pliki systemowe nowymi. Nawet jeśli stare pliki systemowe miały inną nazwę, DOS 5.0 i późniejsze upewniają się, że zostały one nadpisane nowymi plikami systemowymi.
Dzięki rozszerzeniom polecenia SYS DOS-u 4.0 i późniejszych trudno doprowadzić do niepowodzenia procesu uaktualniania wersji DOS-u.
Windows 95 Gdy zainstalujesz Windows 95 na komputerze pracującym dotychczas pod DOS-em, program instalacyjny zmieni rozszerzenie nazw plików systemowych DOS-u na *.DOS, a następnie zainstaluje na dysku pliki IO.SYS i MSDOS.SYS systemu Windows 95. Po zainstalowaniu Windows 95 użytkownik może podczas uruchamiania komputera wywołać program Boot Manager, umożliwiający w razie potrzeby uruchomienie komputera pod kontrolą DOS-u. Aby tego dokonać, Boot Manager po prostu zmienia nazwy rozszerzeń plików systemowych Windows 95 na .W95, a następnie zmienia rozszerzenia plików systemowych DOS-u z powrotem na .SYS.
Znane błędy DOS-u Niewiele jest rzeczy bardziej irytujących, niż codzienne odnajdowanie błędów w programach, od których jesteś zależny. Jeszcze gorsze jest, gdy DOS również ma błędy. Każda, kiedykolwiek wyprodukowana wersja DOS-u miała błędy i użytkownicy musieli się nauczyć, w jaki sposób ich unikać. Niektóre z problemów nigdy nie zostały rozwiązane, po prostu musisz z nimi żyć.
Jednak niekiedy problemy były wystarczająco poważne, by Microsoft i IBM wydawały program je poprawiający. Obie firmy zbudowały pokaźną bibliotekę łatek i informacji, w jaki sposób rozwiązywać zaistniałe w ich oprogramowaniu problemy. Wszystkie te pliki i informacje możesz odnaleźć na ich stronach internetowych, pod poniższymi adresami:
http://support.microsoft.com/support/ http://service5.boulder.ibm.com/pspfixpk.nsf Aktualna wersja MS DOS to 6.22. Zawarte są w niej poprawki do poprzednich wersji serii 6.2x. IBM wydał PC DOS 7.0 jako kilka łatek poprawiających specyficzne problemy jego systemu operacyjnego. Aktualnie dostępne wydania poprawek to: •
D70DCOMP.ZIP. Polecenie DISKCOMP A: A: generowało błędny komunikat o uszkodzeniu dysku. Polecenie DISKCOMP B: B: informowało, że dysk jest skompresowany, mimo że nie był.
•
D70DCOPY.ZIP. Jeśli dysk A: jest automatycznie dodawany, wyświetlany jest nieprawidłowy komunikat nakazujący użytkownikowi włożenie dysku do stacji E:.
•
D700E.ZIP. Poprawia problem z parametrem TEMPF1LENAME w pliku E.INI. D70EMM.ZIP. Nie działała kombinacja klawiszy Ctrl+Alt+Delete.
•
D70MODE.ZIP. Podczas wykonywania polecenia modę con rate=xx pojawiał się błąd Function not supported.
•
D70POWER.ZIP. Podczas wywołania POWER rejestr DX nie zostawał zachowany, powodując zawieszenie się komputera lub utratę danych.
•
D70SHARE.ZIP. Wgranie programu SHARE powodowało wystąpienie błędu Out of Memory.
•
D70STAC.ZIP. Umożliwia działanie programu SETUP na komputerach z procesorem wcześniejszym niż 80286.
•
D70TVL.ZIP. Umożliwia wykonanie w PC DOS-ie 7.0 poleceń XTREE i PCTOOLS systemu Windows 95.
•
D70XDF.ZIP. Program XDFCOPY nie potrafił odzyskać wolnego miejsca na dysku nie posiadającym wystarczającej ilości miejsca na pliki tymczasowe.
Proces uruchamiania komputera Śledzenie procesu uruchamiania komputera może okazać się pomocne w lokalizacji problemu, jeśli sprawdzisz komunikaty o błędach, które komputer wyświetla, gdy tylko one nastąpią. Jeśli widzisz komunikat błędu wyświetlony tylko przez określony program, możesz być pewien, że to on został, przynajmniej częściowo, wgrany i uruchomiony jako ostatni. Połącz tę informację z wiedzą o sekwencji uruchamiania komputera i już możesz co najmniej powiedzieć, jak daleko posunęła się procedura uruchamiania komputera, zanim wystąpił problem. Często chciałbyś zobaczyć, które pliki lub obszary dysku były odczytywane podczas ujawnienia się błędu procesu uruchamiania komputera. Komunikaty błędów wyświetlane podczas uruchamiania komputera, jak również te wypisywane podczas normalnej pracy, mogą być trudne do rozszyfrowania, ale pierwszym krokiem do ich zrozumienia jest wiedza, skąd dany komunikat pochodzi - który z aktualnie używanych programów wysłał Komputer PC, zanim uruchomi duży system operacyjny, musi najpierw wgrać mały program, który przeprowadzi inicjację systemu. Od włączenia zasilania do uruchomienia się i gotowości do pracy systemu operacyjnego występuje cały łańcuch zdarzeń. Każda funkcja jest wywoływana przez funkcję poprzednią i sama również wywołuje kolejną funkcję. informację o błędzie. Poniższe programy mogą wysyłać komunikaty błędu podczas uruchamiania się komputera:
•
BIOS zawarty w ROM-ie płyty głównej;
•
BIOS zawarty w ROM-ach kart rozszerzeń;
•
sektor startowy podstawowej partycji;
•
sektor startowy dyskietki DOS;
•
pliki systemowe (IO.SYS/IBMIO.COM oraz MSDOS.SYS/IBMDOS.COM);
•
sterowniki urządzeń (ładowane poprzez CONFIG.SYS lub rejestr systemu Windows 95 - SYSTEM.DAT);
•
programy powłoki (COMMAND.COM w DOS-ie);
•
programy uruchamiane przez AUTOEXEC.BAT;
•
Windows (WIN.COM).
W niniejszej sekcji została opisana sekwencja startowa komputera. Szczegółowo opisano również wiele komunikatów błędów, mogących wystąpić na tym etapie pracy komputera.
Sposób wgrywania się i uruchamiania DOS-u Jeśli podczas uruchamiania Twojego komputera występują problemy i potrafisz określić, jaki etap sekwencji startowej jest za nie odpowiedzialny, najprawdopodobniej będziesz w stanie wyeliminować przyczynę problemu. Podczas typowego uruchamiania komputer wykonuje poniższe czynności:
1. Poprzez naciśnięcie przycisku dostarczasz prąd do zasilacza komputera.
2. Zasilacz przeprowadza autotest. Jeśli wszystkie napięcia są akceptowalne na aktualnym poziomie, zasilacz uznaje, że prąd jest stabilny i wysyła sygnał Power Good do płyty głównej. Czas od naciśnięcia przycisku do wysłania sygnału Power Good zazwyczaj mieści się w przedziale od 0,1 do 0,5 sekundy.
3. Mikroprocesor kości zegara otrzymuje sygnał Power Good i przestaje wysyłać do procesora sygnał resetu.
4. Procesor rozpoczyna wykonywanie kodu zawartego w pamięci ROM BIOS-u, począwszy od adresu FFFF:0000. Ponieważ adres ten znajduje się zaledwie 16 bajtów od samego końca dostępnej pamięci ROM, zawiera instrukcję JMP (skoku) do aktualnego adresu startowego ROM BIOS-u. 5. BIOS przeprowadza test sprzętu, weryfikując podstawowe funkcje systemu. Jeśli wystąpią jakiekolwiek błędy, zostanie to zasygnalizowane dźwiękami,
ponieważ nie zostało jeszcze zainicjowane wyświetlanie obrazu. 6. BIOS sprawdza, czy w adresach od C000:0000 do C780:0000 znajduje się ROM karty graficznej umieszczonej w jednym z gniazd rozszerzeń komputera. Jeśli odnajdzie w tym obszarze jakikolwiek BIOS, zaczyna testować jego sumę kontrolną. Jeśli BIOS przejdzie test sumy kontrolnej, zostaje wykonany; karta graficzna zostaje zainicjowana. Na ekranie pojawia się kursor. Jeśli suma kontrolna BIOS-u karty graficznej nie jest prawidłowa, na ekranie pojawia się następujący komunikat:
COOO ROM Error 7. Jeśli BIOS nie odnajdzie żadnej karty graficznej, to w celu jej zainicjowania użyje sterownika ROM-u kart graficznych umieszczonego na płycie głównej. Na ekranie pojawi się kursor.
8. BIOS zawarty w ROM-ie płyty głównej przeszukuje w krokach po 2 kB pamięć od adresu C800:0000 do DF80:0000, poszukując jakichkolwiek innych pamięci ROM umieszczanych tam przez inne karty rozszerzeń. Zostaje przetestowana suma kontrolna każdego odnalezionego ROM-u, który następnie zostaje wykonany. Uruchomione ROM-y kart rozszerzeń mogą koegzystować z procedurami BIOS-u bądź też je zastępować.
9. Uszkodzenie lub nieprawidłowa suma kontrolna któregokolwiek z modułów zawartych w ROM-ie wywołuje następujący komunikat:
XXXX ROM Error Adres XXXX oznacza segment adresu uszkodzonego modułu ROM.
10. BIOS sprawdza zawartość (słowo - wór d - dwa bajty) adresu pamięci 0000:0472 (), by zobaczyć, czy aktualne uruchamianie komputera jest zimne (cold start], czy też ciepłe (w ar m start). Wartość słowa 1234h umieszczona w tej lokacji jest flagą oznaczającą ciepły start komputera, powodujący pominięcie testowania przez POST (Power-On SelfTesf) pamięci. Jakakolwiek inna wartość słowa w tej lokacji oznacza zimny start systemu i wykonywanie całego POST-u.
11. Jeśli jest to zimny start systemu, wykona się POST. Jeśli w trakcie jego wykonywania wystąpią jakiekolwiek błędy, POST poinformuje o tym poprzez kombinację dźwięków i pojawiających się na ekranie komunikatów błędu.
Poprawne ukończenie testów POST sygnalizowane jest jednym krótkim dźwiękiem. 12. BIOS szuka sektora startowego dysku DOS, znajdującego się na cylindrze O głowicy O, w sektorze l (jest to pierwszy sektor na dysku) w stacji dysków A:. Sektor ten jest wgrywany do pamięci pod adres 0000:7COO, a następnie testowany. Jeśli w stacji dysków nie ma dyskietki lub jest, ale stacja nie potrafi odczytać na niej sektora startowego, BIOS przechodzi do kolejnego kroku.
13. Jeśli pierwszy bajt kodu wgranego z sektora startowego dyskietki jest mniejszy niż 06h lub też jeśli jest on większy bądź równy 06h i pierwsze dziewięć słów zawiera te same dane, komputer zatrzymuje się i wyświetla na ekranie następujący komunikat:
14. Jeśli dysk został przygotowany przez polecenie FORMAT lub SYS DOS-u 3.3 lub wcześniejszego i odpowiednie pliki systemowe nie są dwoma pierwszymi w strukturze głównego katalogu lub jeśli podczas ich wgrywania wystąpił problem, na ekranie pojawi się następujący komunikat:
Non-System disk or disk error Replace and strike any key when ready 15. Jeśli dysk został przygotowany przez polecenie FORMAT lub SYS DOS-u 3.3 lub wcześniejszego i jego sektor startowy został uszkodzony, możesz zobaczyć następujący komunikat:
Disk Boot failure 16. Jeśli dysk został przygotowany przez polecenie FORMAT lub SYS DOS-u 4.0 lub późniejszego i odpowiednie pliki systemowe nie są dwoma pierwszymi w strukturze głównego katalogu lub jeśli podczas ich wgrywania wystąpił problem lub też sektor startowy dyskietki jest uszkodzony, możesz zobaczyć następujący komunikat:
Non-System disk or disk error Replace and strike any key when ready
17. Jeśli z dyskietki w stacji A: nie da się odczytać sektora startowego, BIOS sprawdza sektor startowy podstawowej partycji dysku twardego umieszczony na cylindrze O, głowicy O, w sektorze l (jest to pierwszy sektor) pierwszego dysku twardego. Jeśli sektor zostanie odnaleziony, jest on wgrywany do pamięci pod adres 0000:7COO, a następnie testowany na obecność podpisu.
18. Jeśli dwa ostatnie bajty (podpis) sektora startowego partycji podstawowej nie wynoszą 55AAh, na większości komputerów wywoływane jest programowe przerwanie I8h (Int I8h). Na komputerach PS/2 IBM-a wyświetlany jest specjalny, graficzny komunikat, przedstawiający wkładanie dyskietki do stacji dysków A: i naciskanie klawisza Fl. W komputerach IBM innych niż PS/2 Int I8h wykonuje znajdujący się w ROM-ie BIOS-u interpreter języka BASIC. Gdy to nastąpi, na ekranie pojawia się komunikat podobny do następującego:
The IBM Personal Computer Basic Version Cl.10 Copyright IBM Corp 1981 62940 Bytes free Ok.
Ponieważ żadna z wersji BIOS-u przeznaczonego do komputerów innych niż produkowane przez IBM nie posiadała interpretera języka BASIC, inni producenci BIOS-ów musieli znaleźć inne rozwiązanie sytuacji, w której komputery IBM wywoływały BASIC. Komputery PC posiadające AMI BIOS wyświetlają mylący komunikat:
NO ROM BASIC - SYSTEM HALTED 602-Diskette Boot Record Terror Napis ten jest BlOS-owym komunikatem błędu pokazywanym przez AMI BIOS w tych samych sytuacjach, w których komputery IBM odwołują się do interpretera BASIC-a, którego oczywiście nie ma w AMI BlOS-ach (i prawdę mówiąc, w żadnym z innych kompatybilnych BIOS-ów). Inne wersje BIOS-ów wyświetlają różne komunikaty. Na przykład w tych samych sytuacjach BIOS Compaą wypisuje poniższy komunikat: Non-System disk or disk error Replace and strike any key when ready Jest to trochę mylące, ponieważ bardzo podobny (lub taki sam) komunikat występuje w DOS-owym sektorze startowym i jest wyświetlany, jeśli brakuje plików systemowych DOS-u lub są one uszkodzone. W sytuacji, w której na komputerach IBM zobaczyłbyś BASIC, komputer z BlOS-em Award wyświetli komunikat:
DISK BOOT FAILURE, INSERT SYSTEM DISK AND PRESS ENTER Natomiast BIOS Phoenix w takich wypadkach wyświetli:
No boot device available strike Fl to retry boot, F2 for setup utility
lub
No boot sector on fixed disk strike Fl to retry boot, F2 for setup utility
To, czy Phoenix wyświetli pierwszy, czy też drugi komunikat, zależy od aktualnie występującego błędu. Pomimo iż wyświetlane komunikaty zmieniają się w zależności od BIOS-u, źródłem ich powstawania zawsze są określone bajty w sektorze startowym głównej partycji (Master Boot Record), będącym pierwszym sektorem na dysku i fizycznie umieszczonym na cylindrze O, głowicy O, w sektorze l.
Problem ten dotyczy dysków, które nigdy nie były partycjonowane lub na których uszkodzony został MBR (Master Boot Record). Podczas procesu uruchamiania komputera BIOS sprawdza, czy w dwóch ostatnich bajtach w MBR (pierwszym sektorze na dysku) zawarty jest „podpis" mający wartość 55AAh. Jeśli dwa ostatnie bajty nie mają wartości 55AAh, zostaje wywołane przerwanie I8h, wywołujące podprocedurę wyświetlającą odpowiedni komunikat lub, też na komputerach IBM, uruchamiającą zawarty w ROM-ie interpreter języka BASIC. MBR (łącznie z bajtami podpisu) jest zapisywany na dysku twardym przez DOSowy program FDISK. Zaraz po niskopoziomowym sformatowaniu twardego dysku zostaje sprawdzona poprawność wszystkich znajdujących się na nim sektorów poprzez zapisanie na nich, a następnie odczytanie określonej próbki bajtów. Powoduje to, że w pierwszym sektorze nie ma podpisu, mającego wartość 55AAh. Innymi słowy, powyższe komunikaty błędów generowane przez BIOS są tym, co zobaczysz przy próbie uruchomienia komputera z niskopoziomowo sformatowanego twardego dysku, który jeszcze nie został przepartycjonowany.
19. Program umieszczony w sektorze startowym głównej partycji sprawdza, czy w zawartej na dysku tablicy partycji jest zapisany bajt oznaczający istnienie partycji rozszerzonej. Jeśli program odnajdzie odpowiedni zapis, wgrywa sektor
startowy partycji rozszerzonej z określonej wcześniej lokacji. Sektor startowy partycji rozszerzonej również posiada tablicę, która zostaje przeszukana w celu sprawdzenia, czy jest w niej określona pozycja kolejnej partycji rozszerzonej. Jeśli zostanie odnaleziony zapis precyzujący położenie kolejnej partycji rozszerzonej, zostaje wgrany jej sektor startowy. Przeszukiwanie jest kontynuowane aż do nieodnalezienia kolejnej partycji rozszerzonej lub do uzyskania informacji o maksymalnej ilości, czyli 24 partycjach rozszerzonych.
20. Procedury zawarte w sektorze startowym głównej partycji przeszukują tablicę partycji w celu odnalezienia bajtu oznaczającego partycję aktywną.
21. W komputerach IBM, jeśli żadna z partycji nie została zaznaczona jako aktywna (startowa), wywoływany jest zawarty w BlOS-ie interpreter BASIC-a. Na większości komputerów kompatybilnych z IBM-em wyświetlany jest jakiś typ komunikatu o błędzie dysku.
22. Jeśli któryś ze wskaźników uruchamiania znajdujących się w sektorze startowym głównej partycji jest nieprawidłowy lub jeśli więcej niż jedna partycja zaznaczona jest jako aktywna, komputer przestaje się uruchamiać i wyświetla następujący komunikat: Invalid partition table 23. Jeśli w sektorze startowym podstawowej partycji została zdefiniowana aktywna partycja, jej sektor startowy
24. zostaje wgrany i przetestowany.
25. Jeśli w ciągu pięciokrotnie powtarzanych prób, z powodu błędów odczytu, nie uda się odczytać sektora startowego DOS-owego dysku, komputer zatrzymuje się i wyświetla komunikat: Error loading operating system 26. Rozpoczyna się test podpisu sektora startowego DOS-owego twardego dysku. Jeśli sektor startowy dysku DOS nie zawiera prawidłowego podpisu, jako dwóch ostatnich bajtów równych 55AAh, komputer zatrzymuje się. a na ekranie pojawia się następujący komunikat: Missing operating system
27. Sektor startowy dysku zostaje wykonany jako program. Program ten sprawdza, czy w głównym katalogu dysku twardego jako pierwsze dwa znajdują się pliki IO.SYS (lub IBMIO.COM) oraz MSDOS.SYS (lub IBMDOS.COM). Jeśli pliki istnieją, zostaną załadowane.
28. Jeśli dysk został przygotowany poleceniem FORMAT lub SYS DOS-u 3.3 lub wcześniejszego i odpowiednie pliki systemowe nie są dwoma pierwszymi plikami w głównym katalogu lub jeśli podczas ich wgrywania wystąpił problem, na ekranie pojawi się następujący komunikat:
Non-System disk or disk error Replace and strike any key when ready 29. Jeśli dysk został przygotowany przez FORMAT lub SYS DOS-u 3.3 lub wcześniejszego i jego sektor startowy został uszkodzony, możesz zobaczyć następujący komunikat:
Disk Boot failure 30. Jeśli dysk został przygotowany przez FORMAT lub SYS DOS-u 4.0 lub późniejszego i odpowiednie pliki systemowe nie są dwoma pierwszymi w strukturze głównego katalogu lub jeśli podczas ich wgrywania wystąpił problem czy też sektor startowy dyskietki jest uszkodzony, możesz zobaczyć następujący komunikat:
Non-System disk or disk error Replace and strike any key when ready 31. Jeśli nie wystąpią żadne problemy, sektor startowy DOS-owego dysku wykona IO.SYS/IBMIO.COM. W systemie operacyjnym Windows 9x można uruchomić menu startowe, naciskając klawisz F8 podczas startu komputera, a następnie uruchomić system operacyjny, który mamy zamiar uruchomić.
32. Kod inicjacji zawarty w IO.SYS/IBMIO.COM kopiuje się do największego ciągłego obszaru pamięci DOS-u i przekazuje kontrolę kopii. Następnie kod inicjacji kopiuje i przemieszcza MSDOS.SYS na część IO.SYS umieszczoną w pamięci podstawowej i zawierającą kod inicjacji, ponieważ kod inicjacji nie jest
już dłużej tam potrzebny. Plik IO.SYS systemu Windows 95 łączy funkcję DOSowego IO.SYS oraz MSDOS.SYS.
33. Kod inicjacji wykonuje MSDOS.SYS (lub IBMDOS.SYS), który inicjuje podstawowe sterowniki urządzeń, określa konfigurację komputera, resetuje system dyskowy, resetuje i inicjuje urządzenia peryferyjne, a następnie ustawia domyślną konfigurację systemu.
34. Jest już aktywny cały system segregacji DOS-u, kontrola powraca do kodu inicjacji z IO.SYS.
35. Kod inicjacji z IO.SYS wielokrotnie odczytuje CONFIG.SYS. W systemie Windows 95 IO.SYS sprawdza również plik rejestru SYSTEM.DAT.
36. Podczas obróbki pliku CONFIG.SYS pierwszymi z wykonywanych (w kolejności, w której występują) są polecenia DEYICE, wszystkie sterowniki urządzeń są wgrywane, a następnie uruchamiane. Następne są polecenia INSTALL, wykonywane również w kolejności występowania, wszystkie zdefiniowane w nich programy zostają wgrane i uruchomione. Kolejnym wykonywanym poleceniem jest SHELL, które powoduje wgranie i uruchomienie interpretera poleceń wraz z ustawionymi parametrami. Jeśli CONFIG.SYS nie zawiera polecenia SHELL, zostanie uruchomiony standardowy interpreter poleceń COMMAND.COM. Wgrywanie interpretera poleceń usuwa z pamięci kod inicjacji (ponieważ system został już uruchomiony).
W systemie Windows 95 COMMAND.COM wgrywany jest tylko w celu uruchomienia poleceń zawartych w pliku AUTOEXEC.BAT, o ile on istnieje. Podczas końcowego odczytywania CONFIG.SYS wszystkie pozostałe polecenia zostają odczytane i wykonane zgodnie z kolejnością ich występowania. Z tego powodu kolejność umieszczenia w CONFIG.SYS poleceń innych niż DEYICE, INSTALL oraz SHELL nie ma znaczenia.
37. Jeśli AUTOEXEC.BAT nie został odnaleziony, COMMAND.COM wykonuje wewnętrzne polecenia DATĘ oraz TIME, wyświetla informację o prawach autorskich oraz wyświetla znak zachęty DOS-u. W systemie Windows 95 IO.SYS automatycznie wgrywa HIMEM.SYS. IFSHLP.SYS oraz SETVER.EXE. Na koniec wgrywa WIN.COM i od tego momentu oficjalnie jest już uruchomiony Windows 95.
Istnieje możliwość wystąpienia pewnych zmian w obrębie powyższego scenariusza, spowodowanych na przykład przez zawarte w ROM-ach kart rozszerzeń programy. W zależności od umieszczonych w BlOS-ie programów mogą występować różnice w niektórych spośród komunikatów błędów, a także w kolejności realizacji poszczególnych podpunktów. Generalnie rzecz biorąc, komputer przeprowadza ten cały łańcuch zdarzeń przy „budzeniu się do życia". Możesz modyfikować procedurę uruchamiania się komputera poprzez zmienianie plików CONFIG.SYS oraz AUTOEXEC.BAT lub rejestru Windows 95. Pliki te konfigurują ustawienia DOS-u oraz Windows 95 i umożliwiają wykonywanie za każdym uruchamianiem komputera określonych programów.
Nadzór nad plikami DOS używa wielu elementów i struktur w celu zachowania i odczytu informacji na dysku. Te elementy i struktury umożliwiają DOS-owi poprawną komunikację z zawartym w ROM-ie BlOS-em, jak również udostępniają DOS-owym aplikacjom możliwość wykonywania operacji na plikach. Zrozumienie tych struktur, a także tego, w jaki sposób są one ze sobą powiązane, umożliwi Ci dokonywanie ich naprawy oraz ułatwi rozwiązywanie związanych z nimi błędów.
DOS przydziela na dysku miejsce dla pliku na żądanie (miejsce nie jest wcześniej rezerwowane). Miejsce jest przydzielane po jednym klastrze (cluster) lub inaczej jednostce alokacji. Klaster zawsze zajmuje co najmniej jeden sektor (w celu uzyskania większej ilości informacji o sektorach zajrzyj do rozdziału 14. „Napędy dysków twardych").
Dysk jest podzielony na klastry, by zminimalizować ruchy głowicy na wielostronnych urządzeniach. DOS alokuje całe miejsce na cylindrze dysku, zanim przejdzie do następnego cylindra. Robi to poprzez zapisanie sektorów znajdujących się pod pierwszą głowicą, następnie wszystkich sektorów znajdujących się pod następną głowicą, i tak dalej, aż do momentu, w którym wszystkie sektory na wszystkich głowicach zostały już użyte. Następnym używanym sektorem jest sektor 1. zerowej głowicy następnego cylindra. (Więcej informacji o stacjach dysków i dyskietkach odnajdziesz w rozdziale 13. „Stacje dyskietek", natomiast o twardych dyskach w rozdziale 14. „Napędy dysków twardych".)
Algorytm używany do przydzielania miejsca dla plików w DOS-ie 3.0 i wyższych nazywany jest algorytmem następnego dostępnego klastra (Next Available C luster algorithm). W algorytmie tym poszukiwanie dostępnych do zapisu pliku klastrów rozpoczyna się nie od początku dysku, lecz od miejsca ostatniego zapisu. Z tego powodu miejsce zwolnione na dysku poprzez usunięcie pliku niekoniecznie jest od razu ponownie używane. DOS ustawia wskaźnik ostatnio zapisanego klastra (Last Written Cluster pointer) skierowany na ostatnio zapisany klaster i rozpoczyna poszukiwanie od tego właśnie miejsca. Wskaźnik ostatnio zapisanego klastra
znajduje się w pamięci i jest tracony przy re-secie lub restarcie komputera. Jest tracony również po zmianie dyskietki w stacji dysków.
Algorytm następnego dostępnego klastra używany w DOS-ie 3.0 i późniejszych jest szybszy niż algorytm pierwszego dostępnego klastra używany przez wcześniejsze wersje DOS-u. Jego zastosowanie minimalizuje fragmentację dysku. Czasami ten typ algorytmu nazywany jest poszukiwaniem windowym, ponieważ operacje zapisu występują w coraz wyższych i wyższych klastrach dysku, aż do osiągnięcia jego końca. W tym ostatnim wypadku wskaźnik ostatniego zapisu zostaje zresetowany i poszukiwanie wolnych klastrów dla zapisu rozpoczyna się znowu od początku dysku. Pliki będące w ciągłym użyciu są przez nowy algorytm fragmentowane, ponieważ wskaźnik ostatniego zapisu jest resetowany po restarcie, zmianie dysku lub gdy zostanie osiągnięty koniec dysku. Tym niemniej wspaniałą korzyścią nowszej metody jest zwiększona szansa na odkaso-wanie plików, nawet jeśli od czasu ich usunięcia na dysku zostały zapisane jakieś dane. Dzieje się tak dlatego, że miejsce po dopiero co usuniętym pliku nie staje się od razu celem kolejnej operacji zapisu. Prawdę mówiąc, może upłynąć trochę czasu, zanim zwolnione przez usunięty plik klastry zostaną ponownie zapisane.
Nawet jeśli plik jest nadpisywany w wersji DOS-u 3.0 i późniejszych, używane przez niego klastry nie zostają nadpisane. Na przykład jeśli przypadkowo zapiszesz na dysk plik, używając tej samej nazwy, którą posiada inny ważny plik, istniejący już wcześniej na dysku, klastry istniejącego pliku oznaczane są jako dostępne, ale nowy plik (o tej samej nazwie) fizycznie zapisywany jest na dysku w innych klastrach. Dzięki temu nadal istnieje możliwość odzyskania oryginalnej kopii. Możesz kontynuować tę procedurę poprzez nagrywanie na dysku innej kopii pliku z tą samą nazwą i każda nowa kopia pliku zostanie zapisana w innych, coraz wyższych klastrach. Później każda wcześniej nadpi-sana wersja nadal może być odzyskana z dysku. Proces ten może być kontynuowany aż do restartu systemu lub do osiągnięcia końca dysku. Po restarcie lub osiągnięciu końca dysku znacznik ostatniego zapisu jest ustawiany na pierwszy klaster i poprzednie dane plików zostają zastąpione.
Ponieważ DOS przy tworzeniu lub zapisie pliku zawsze używa pierwszej dostępnej pozycji katalogu, nadpisane lub usunięte pliki, których dane nadal można odzyskać z dysku, nie występują już na liście katalogu. Z tego powodu nie istnieje żaden komercyjny lub jakikolwiek inny program umożliwiający szybkie odkasowywanie plików, będący w stanie odnaleźć jakikolwiek zapis usuniętego lub nadpisanego pliku -jest to oczywiste, skoro programy te sprawdzają jedynie, czy w strukturze katalogu istnieje zapis usuniętego pliku. Niektóre programy odkasowujące posiadają rezydujący w pamięci program śledzący operacje usuwania i najczęściej tworzący swój własny spis zawartości katalogów, niezależny od DOS-u. Jeśli program odkasowujący posiada tę funkcję, lecz nie została ona uaktywniona przed usunięciem pliku, to nie będzie on w stanie odzyskać usuniętego pliku, jeśli informacja o nim została usunięta ze struktury katalogu.
Ponieważ programy odkasowujące nie sprawdzają FAT-u czy też klastrów danych (dopóki nie zostanie uaktywnione śledzenie usunięć), nie odnajdują zapisu świadczącego o istnieniu pliku. Poprzez przeskanowanie wolnych klastrów dysku, jeden po drugim, możesz zlokalizować dane pochodzące z nadpisanych bądź usuniętych plików, a następnie ręcznie uaktualnić FAT i strukturę katalogów, używając narzędzia pozwalającego na bezpośrednią edycję dysku. Dzięki tej metodzie możesz odzyskać usunięte pliki, nawet jeśli na dysku od momentu ich usunięcia dokonano operacji zapisu.
Komunikacja z napędami dyskowymi W celu umożliwienia uzyskania dostępu do plików DOS używa kombinacji algorytmów zarządzających dyskiem. Występują pewne różnice pomiędzy algorytmami na dyskietkach i na twardych dyskach, zależą one także od wielkości dysku. Algorytmy określają, w jaki sposób dany dysk będzie widziany przez DOS i jego aplikacje. Każdy komponent przeznaczony do wyznaczenia systemu dysku występuje jako warstwa w całości systemu. Każda warstwa komunikuje się z warstwami położonymi bezpośrednio obok niej. Gdy wszystkie komponenty współpracują ze sobą, aplikacje mogą używać dysku, by odczytać i zapisać dane. W tabeli 23.1 wypisane zostały specyfikacje DOS-owych formatów dyskietek.
Tabela 23.1. Specyfikacje DOS-owych formatów dyskietek Wielkość dysku (cal)
3 , 5
5 , 2 5
Pojemność dysku (kB)
2 8 8 0
1
Bajt opisu nośnika
F O h
F O h
Stron (głowic)
2
2
Ścieżek na stronę
8 0
8 0
Sektorów na ścieżkę
3 6
1 8
Bajtów na sektor
5
5
4 4 0
1 2
1 2
Sektorów na klaster
2
2
Długość FAT (w sektorach)
9
9
Liczba FAT-ów
2
2
Długość głównego katalogu (w sektorach)
1 5
1 5
Maksymalna ilość pozycji w gl. katalogu
2 4 0
2 2 4
Całkowita ilość sektorów na dysku
5 7 6 0
2 8 8 0
Całkowita sektorów
5 7 2 6
2
2 8 6 3
2 8 4 7
Całkowita klastrów
ilość
ilość
dostępnych
dostępnych
8 4 7
Cztery podstawowe warstwy interfejsu pomiędzy uruchomioną w systemie aplikacją, a jakimkolwiek dołączonym do komputera dyskiem, zawierają procedury potrafiące wykonać wiele funkcji, najczęściej używanych do komunikacji z przylegającymi poziomami. Poziomy te zostały wyszczególnione w poniższej liście: • procedury dostępne w DOS-owym przerwaniu 21 h (Int 21 h); • procedury dostępne w DOS-owych przerwaniach 25/26h (Int 25/26h); • procedury dostępne w BlOS-owym przerwaniu dyskowym 13h (Int 13h); • polecenia przesyłane na port I/O kontrolera dysku.
Każdy poziom akceptuje różne polecenia, spełnia odmienne funkcje oraz generuje wyniki. Interfejs ten jest dostępny zarówno dla twardych dysków, jak i stacji dysków,
pomimo iż obsługujące je procedury zawarte w 13h zdecydowanie się od siebie różnią. Kontrolery twardych dysków i stacji dysków są bardzo odmienne, lecz poziomy umożliwiają przeprowadzenie tych samych funkcji zarówno na dyskach twardych, jak i na dyskietkach.
Przerwanie 21h Procedury DOS-owego przerwania 2lh są umieszczone na najwyższym poziomie i udostępniają najwięcej możliwości przy najmniejszym nakładzie pracy. Na przykład jeśli program aplikacji musi stworzyć na dysku podkatalog, wywołuje funkcję 39h przerwania 21 h. Funkcja ta przeprowadza wszystkie czynności wymagane do stworzenia na dysku podkatalogu. łącznie z uaktualnieniem odpowiedniego katalogu i modyfikacją sektorów FAT. Jedyną wymaganą przez funkcję informacją jest nazwa zakładanego podkatalogu. DOS-owe przerwanie 21 h tak naprawdę wykonuje znacznie więcej pracy, używając do stworzenia katalogu jednej z zawartych w niższych poziomach metod dostępu do dysku. Większość aplikacji odczytuje dysk poprzez ten poziom interfejsu.
Przerwanie 25h i 26h DOS-owe procedury zawarte w Int 25h i Int 26h umożliwiają dostęp do dysku niższego poziomu, niż procedury przerwania 21 h. Int 25h tylko odczytuje określony sektor z dysku, natomiast Int 26h tylko zapisuje określony sektor na dysk. Jeśli chciałbyś napisać program, który używałby tych funkcji przy tworzeniu katalogu na dysku, nakład włożonej przez Ciebie pracy musiałby być o wiele większy, niż gdybyś używał procedur zawartych w Int 21 h. Na przykład Twój program musiałby przeprowadzić następujące czynności:
•
dokładnie obliczyć, które sektory z zajmowanych przez FAT i katalog muszą zostać uaktualnione;
•
użyć Int 25h, by odczytać te sektory;
•
właściwie zmodyfikować odpowiednie sektory, by zawierały informacje o nowym podkatalogu;
•
użyć Int 26h, by zapisać zmodyfikowane sektory.
Ilość kroków może się zwiększyć w zależności od trudności dokładnego określenia sektorów, które mają zostać zmodyfikowane. Dla Int 25/26h cały możliwy do zaadresowania przez DOS obszar dyskowy zawiera sektory numerowane od zera. Program zaprojektowany tak, by korzystał z Int 25/26h, musi znać pozycje wszystkich danych znajdujących się w określonym sektorze. Może okazać się, że tak zaprojektowany program musi być modyfikowany, by działał na dyskach o innej liczbie sektorów,
innych katalogach oraz innych rozmiarach i pozycji FAT-u. Z powodu tych wszystkich komplikacji, wynikających przy wykonywaniu przez program prostej czynności, programiści zazwyczaj rezygnują z korzystania z dysku za pomocą tej metody i wybierają położone na wyższym poziomie przerwanie Int 21h - które wykona wszystkie te czynności automatycznie.
Dostęp do dysku za pomocą Int 25/26h wykorzystują zazwyczaj tylko programy edytu-jące sektory lub dyski. Programy działające na tym poziomie dostępu mogą edytować tylko obszary dysku zdefiniowane wcześniej przez DOS jako dysk logiczny (posiadający literę). Na przykład za pomocą właśnie tego poziomu dostępu program DEBUG odczytuje i zapisuje sektory na dysku.
Przerwanie 13h
Kolejnym niższym poziomem porozumiewania się z napędami są umieszczone w BlOS-ie procedury przerwania Int 13h, znajdujące się najczęściej w układach ROM na płycie głównej lub kontrolerze karty w gnieździe rozszerzeń. Procedury Int 13h mogą zostać również zaimplementowane poprzez programowy sterownik załadowany podczas uruchamiania komputera. Ponieważ DOS wymaga dostępu do Int 13h, by uruchomić się z napędu (a programowy sterownik nie może zostać załadowany, zanim DOS nie uzyska dostępu do napędu, z którego ma się uruchomić), DOS można uruchamiać wyłącznie z napędów, do których dostęp uzyskuje się poprzez procedury Int 13h bazujące na BlOS-ie. Procedury Int 13h wymagają bezpośredniego dostępu do kontrolera przy użyciu jego portów I/O. Z tego powodu kod Int 13h jest bardzo zależny od kontrolera.
Tabela 23.2 zawiera listę różnych funkcji udostępnianych poprzez interfejs BJOSowego przerwania 13h. Niektóre z funkcji są dostępne wyłącznie dla twardych dysków lub stacji dysków, wszystkie pozostałe są dostępne dla obu typów napędów. W tabeli 23.3 wypisane są kody błędów zwracanych przez BlOS-owe procedury przerwania Int 13h. Możesz je czasami ujrzeć, gdy używasz programu niskopoziomowo formatującego dyski, edytora dysku lub innego programu uzyskującego bezpośredni dostęp do dysku poprzez BIOS. Jeśli zaprojektujesz swoje własne urządzenie kontrolujące dyski, musisz napisać kompatybilny z IBM-em pakiet usług przerwania 13h i zainstalować go w ROM-ie BIOS-u karty, by był dołączany do systemu przy uruchamianiu się komputera. Aby użyć procedur Int 13h, program musi dokładnie sprecyzować numer cylindra, głowicy, ścieżki i sektora, na którym ma być dokonana operacja odczytu lub zapisu. Dodatkowo, każdy program zaprojektowany, by działać na tym poziomie, musi zawierać bardzo precyzyjne informacje o parametrach dysków komputera, na którym ma pracować. Funkcje przerwania Int 13h muszą odczytywać parametry dysku, formatować ścieżki, odczytywać i zapisywać sektory, parkować głowice oraz resetować napęd.
Tabela 23.2 Funkcje dyskowe BIOS-owego przerwania Int 13h
Funkcja
Stacja dysków
Dysk twardy
Opis
Program formatujący niskopoziomowo dyski ST-506/412 musi wykonywać operacje dyskowe na poziomie Int 13h lub niższym. Większość programów formatujących przeznaczonych dla kontrolera ST-506/507 działa poprzez Int 13h, ponieważ znajdują się w nim wszystkie wymagane przez te programy procedury. Jednakże nie jest to prawdą dla innych typów kontrolerów (jak IDE, SCSI lub ESDI), w których nieprawidłowe mapowanie i inne operacje znacznie różnią się od występujących w ST-506/412. Kontrolery te muszą wykonywać specjalne operacje podczas przeprowadzania niskopoziomowego formatowania. Na przykład definiowanie parametrów dysku w celu unieważnienia BlOS-owych tablic napędu nie zadziała w żadnym z programów formatujących używających standardowego interfejsu Int 13h.
Z tych powodów większość kontrolerów wymaga używania dostosowanych do nich programów formatujących, pomijających interfejs oferowany przez 13h. Większość programów ogólnego użytku formatujących niskopoziomowo dyski osiąga dostęp do poleceń formatu kontrolera dysku poprzez procedury przerwania Int 13h (częściej, niż działając bezpośrednio). Z tego powodu programy te nie mogą być używane do wstępnego niskopoziomowego formatowania dysku, które musi zostać przeprowadzone przez dostosowany do specyficznego kontrolera program. Wiele bardzo rozbudowanych dyskowych programów użytkowych, w odróżnieniu od podstawowego oprogramowania formatującego, potrafi porozumiewać się z dyskiem poprzez poziom Int 13h. DOS-owy FDISK komunikuje się na poziomie Int 13h. DISKEDIT i inne starsze programy Norton Utilities są jednymi z niewielu programów naprawiających dyski, potrafiącymi komunikować się z dyskiem poprzez poziom Int 13h. Programy te są bardzo ważne, ponieważ mogą zostać użyte w najgorszych dla odzyskiwania danych sytuacjach, gdy dojdzie do uszkodzenia tablic
partycji. Ponieważ tablice partycji, również tych nie DOS-owych, istnieją poza obszarem dysku zdefiniowanym przez DOS, dostęp do nich mają tylko programy pracujące na poziomie Int 13h. Większość odzyskujących dane programów użytkowych bazuje na DOS-owych przerwaniach Int 25/26h, a co za tym idzie, nie mają one dostępu do obszarów dysku nie należących do DOS-u.
Polecenia portu I/O kontrolera dysku Na najniższym poziomie interfejsu programy porozumiewają się bezpośrednio z kontrolerem dysku w specyficznym dla danego kontrolera języku. Aby to zrobić, program musi wysyłać polecenia kontrolera poprzez port I/O przypisany dla danego kontrolera. Polecenia te są specyficzne dla poszczególnych kontrolerów i czasami różnią się nawet pomiędzy kontrolerami tego samego typu, na przykład pomiędzy różnymi kontrolerami ESDI. BIOS zawarty w ROM-ie komputera musi być zaprojektowany specjalnie dla danego kontrolera, ponieważ BIOS porozumiewa się z kontrolerem na poziomie portu I/O. Większość programów formatujących niskopoziomowo dyski również musi bezpośrednio porozumiewać się z kontrolerem, ponieważ położony na wyższym poziomie interfejs Int 13h nie udostępnia wystarczająco specyficznych możliwości wielu znajdujących się na rynku kontrolerów ST-506/412, ESDI oraz SCSI.
Rysunek 23.2 ukazuje sposób, w jaki większość aplikacji posługuje się interfejsem przerwania Int 21 h, konwertującego rozkazy na BlOS-owe polecenia Int 13h, które to znowu są konwertowane przez BIOS na bezpośrednie polecenia kontrolera. Kontroler wykonuje zadane mu polecenia i zwraca rezultat poprzez poszczególne poziomy, aż informacja dotrze do oczekującej na nią aplikacji. Dzięki temu procesowi programiści mogą pisać aplikacje, nie martwiąc się o niskopoziomowe detale, o które zadba zamiast nich DOS i BIOS. Inną korzyścią jest umożliwienie aplikacjom działania na znacznie różniących się od siebie typach sprzętu, o ile tylko zostanie on prawidłowo rozpoznany i obsłużony przez BIOS i DOS.
Rysunek 23.2
Każde oprogramowanie może pominąć jakikolwiek poziom interfejsu i bezpośrednio porozumiewać się z poziomem leżącym poniżej, ale robienie tego wymaga o wiele więcej pracy. Najniższym możliwym do uzyskania poziomem interfejsu jest bezpośrednia komunikacja z kontrolerem poprzez używanie jego portów I/O. Tak jak było to pokazane na rysunku 23.2, każdy typ kontrolera ma inaczej umieszczone porty I/O, różnice występują także wśród poleceń akceptowanych przez różne porty, a tylko kontroler bezpośrednio porozumiewa się z napędem dyskowym.
Gdyby DOS nie wykorzystywał BlOS-owego interfejsu Int 13h, dla każdego dostępnego typu twardego dysku i stacji dysków musiałaby być napisana odrębna wersja DOS-u. Zamiast tego, DOS porozumiewa się z BlOS-em, używając standardowych funkcji 13h, tłumaczonych przez interfejs 13h na specyficzne polecenia danego sprzętu. Dzięki standardowemu interfejsowi BIOS-u DOS mógł zostać napisany w jednej wersji niezależnej od specyficznego sprzętu dyskowego i wspiera wiele różnych typów dysków i kontrolerów.
Windows 3.1 Platformy 16-bitowych systemów Windows - Windows 3.1, Windows 3.11 i Windows for Workgroups - w rzeczywistości nie powinny być nazywane systemami operacyjnymi. Sąjedynie środowiskami graficznymi nałożonymi na DOS, wykorzystującymi tę samą technologię dostępu do dysku, jaka była opisana we wcześniejszej części rozdziału. Windows jednak wykorzystuje rozszerzone możliwości procesora Intel 80386 w sposób, w jaki DOS nie potrafi.
>| Patrz „Tryby pracy procesorów", rozdział 6
Windows rozwija także kilka podstawowych koncepcji wprowadzonych w DOS-ie, ułatwiających pracę ze środowiskiem graficznym. Wcześniej czytałeś o tym, jak DOS, w połączeniu z systemowym BlOS-em, udostępnia interfejs do pamięci na dyskach. Ten interfejs pozwala programistom na wywoływanie ogólnych funkcji dostępu do dysku, które mogą zostać zastosowane do dowolnego typu sprzętu obsługiwanego przez system operacyjny. Jednak gdy instalowałeś aplikację DOS-u, często musiałeś wybierać sterowniki dla urządzeń takich, jak karta graficzna, karta dźwiękowa czy drukarka, ponieważ DOS nie zapewniał niczego ponad podstawowy dostęp do tych urządzeń.
Z drugiej strony, Windows potrafi wykorzystać unikatowe możliwości sprzętu zainstalowanego w systemie. Gdy instalujesz Windows, wybierasz sterowniki dla konkretnej karty graficznej, karty dźwiękowej oraz drukarki, wykorzystujące
wszystkie możliwości tych urządzeń. W rezultacie aplikacje Windows nie muszą posiadać własnych sterowników tych urządzeń, ponieważ samo środowisko dostarcza standardowego zestawu wywołań funkcji, tworzącego uniwersalny interfejs do wszelkiego sprzętu zainstalowanego w systemie.
16-bitowe wersje Windows Popularna nazwa „16-bitowy Windows" lub „Windows 3.1" w rzeczywistości może odnosić się do jednego z trzech produktów. Różnice pomiędzy wersjami są dość niewielkie i łatwiej można je rozróżnić na podstawie interfejsu użytkownika. Ogólnie, gdy w tym rozdziale odwołam się do Windows 3.K będę miał na myśli każdy z tych trzech produktów. Windows 3.1 pojawił się w 1992 roku i stał się standardową 16-bitową graficzną platformą dla systemów opartych na procesorach Intel. Windows 3.11 pojawił się w 1994 roku i zawierał aktualizacje kluczowych plików Windows:
•
COMMDLG.DLL
•
GDI.EXE
•
KRNL386.EXE
•
PSCRIPT.DRY
•
SHELL.DLL
•
UNIDRV.DLL
•
USER.EXE
Aktualizacja systemu do wersji 3.11 nie powodowała znaczącego wzrostu wydajności i w związku z tym często była ignorowana przez wielu użytkowników i administratorów odpowiedzialnych za konserwację systemów Windows.
Zarówno Windows 3.1, jak i 3.11 nie zawierały wbudowanej obsługi sieci. W czasie gdy zostały wydane, dominującą platformą sieciową dla świata biznesu był Novell NetWare, który zapewniał oprogramowanie klienta potrzebne do połączenia systemów DOS i Windows z serwerami NetWare. Jednak mniej więcej w tym samym czasie Microsoft zaczął promować własne środowisko sieciowe, czego kulminacją było wypuszczenie w 1993 roku systemu Windows NT.
Windows for Workgroups jest środowiskiem niemal identycznym z Windows 3.1, z wyjątkiem tego, że zawiera klienta sieci Windows umożliwiającego podłączenie systemu do serwera Windows NT lub innego systemu Windows for Workgroups w sieci typu peer-to-peer. Windows for Workgroups obsługiwał także zewnętrznych klientów, na przykład sieci NetWare, dzięki czemu można było tworzyć sieci mieszane, zawierające zarówno zasoby sieci Microsoft Network, jak i sieci Novell NetWare. W chwili gdy ujrzały światło dzienne, Windows for Workgroups i inne sieciowe produkty Microsoftu opierały komunikację sieciową na protokole NetBEUI. Z czasem jednak standardowym protokołem stał się TCP/IP, więc Microsoft, jako uzupełnienie, wypuścił klienta TCP/IP dla Windows for Workgroups, noszącego nazwę TCP/IP-32. W dalszym ciągu istnieje wiele komputerów, które w firmowych sieciach działają właśnie w takiej kombinacji produktów.
Lądowanie Windows 3.1 Jak już wspomniano, Windows 3.1 nie jest systemem operacyjnym sensu stricto. Zanim załadujesz środowisko Windows, zawsze musisz uruchomić komputer w systemie DOS. Z tego powodu proces uruchamiania systemu jest identyczny z opisanym wcześniej w tym rozdziale. Jednak gdy Windows się ładuje, zmienia tryb pracy procesora systemowego i tworzy dodatkową warstwę interfejsu pomiędzy sprzętem a Twoimi aplikacjami. Gdy poprzez wpisanie polecenia WIN w linii poleceń ładujesz Windows 3.1, system wykonuje program WIN.COM, który sprawdza możliwości sprzętu w komputerze i ładuje Windows w odpowiednim trybie obsługiwanym przez ten sprzęt. Gdy powstawał Windows 3.1, świat komputerów osobistych był podzielony pomiędzy procesory 80286, a 80386. Jeśli posiadałeś system z procesorem 286, Windows ładował się w trybie standardowym; w przypadku procesora 386 i nowszych system uruchamiał się w trybie rozszerzonym. Oczywiście, w dzisiejszych czasach procesory 286 są przeżytkiem i praktycznie wszystkie systemy Windows uruchamiają się w trybie rozszerzonym 386.
Oba tryby pracy Windows wymagały dostępu do pamięci XMS (extended memory spe-cification), zapewnianej przez menedżer pamięci rozszerzonej, taki jak HIMEM.SYS, ładowany w pliku CONFIG.SYS podczas uruchamiania komputera. Aby móc odwołać się do pamięci XMS, program WIN.COM przełączał procesor z
trybu rzeczywistego do trybu chronionego, robiąc to, czego DOS nie potrafił. W trybie chronionym programowi może zostać przydzielony obszar pamięci, który jest chroniony przed ingerencją innych programów.
Zwróć uwagę, że tryb rzeczywisty i tryb chroniony są trybami pracy procesora i jako takie nie powinny być mylone z trybem standardowym i trybem rozszerzonym 386, które są trybami pracy systemu Windows.
Gdy WIN.COM wykrył procesor 286 lub wcześniejszy, ładował Windows w trybie standardowym poprzez uruchomienie pliku o nazwie DOSX.EXE (MS-DOS Extended for Windows). W trybie standardowym Windows mógł odwoływać się do pamięci rozszerzonej w celu przełączania zadań. Przełączanie zadań następowało wtedy, gdy w systemie operacyjnym działały dwie lub więcej aplikacji, ale jedynie aktywne okno miało dostęp do zasobów procesora. System uruchamiał dwa pliki, WSWAP.EXE i DSWAP.EXE, w celu przełączania odpowiednio: aplikacji Windows i aplikacji DOS. Gdy Windows ładował się w trybie 386 enhanced modę, WIN.COM uruchamiał plik o nazwie WIN386.EXE, który z kolei ładował pliki wyszczególnione w sekcji [386enh] pliku SYSTEM.INI. Rozszerzony tryb 386 umożliwiał wykorzystanie pamięci wirtualnej, czyli przestrzeni na lokalnym dysku twardym, zastępującej pamięć RAM w celu zapewnienia większej przestrzeni adresowej do uruchamiania aplikacji. Z pomocą pamięci wirtualnej system Windows w trybie 386 enhanced mógł pracować \vielozadanio~wo, tzn. uruchamiać w tym samym czasie kilka programów, z których każdy miał swój określony czas dostępu do procesora.
Choć prawdziwa wielozadaniowość wymaga osobnego procesora dla każdego z zadań, jednak przyjęło się stosowanie tego terminu do podziału cykli pojedynczego procesora pomiędzy zadania, tak jak to się dzieje w przeciętnym komputerze osobistym. Oczywiście czas dostępu do dysku jest o wiele dłuższy niż czas dostępu do pamięci (czas dostęp do dysku jest mierzony w milisekundach, tysiącznych częściach sekundy, zaś czas dostępu do pamięci w nanosekundach, miliardowych częściach sekundy), więc pamięć wirtualna nawet w przybliżeniu nie jest tak wydajna jak pamięć RAM. Jednak dzięki możliwości przerzucenia danych z pamięci RAM na dysk zyskano możliwość uruchamiania większej ilości kodu niż w przypadku samej pamięci RAM.
Kluczowe pliki Windows Po załadowaniu plików obsługujących odpowiedni tryb Windows ładuje kluczowe komponenty zapewniające podstawową funkcjonalność środowiska. Do plików
tych należą: •
KRNL286.EXE lub KRNL386.EXE. Plik jądra (odpowiedni dla procesora w systemie) jest odpowiedzialny za zarządzanie zasobami systemowymi, takimi jak pamięć i cykle procesora, a także za ładowanie aplikacji i obsługę zdarzeń systemowych.
•
USER.EXE. Ten program jest odpowiedzialny za manipulowanie oknami, ikonami i innymi elementami składającymi się na interfejs użytkownika Windows. Gdy używasz myszki lub klawiatury do otwarcia, zamknięcia, przesunięcia lub zmiany rozmiaru okna, USER.EXE przekazuje polecenia aplikacji powiązanej z tym oknem.
•
GDI.EXE. GDI jest graficznym interfejsem urządzenia, odpowiedzialnym za generowanie obrazów ekranu i innych operacji graficznych.
Po załadowaniu i uruchomieniu kluczowych plików Windows ładuje zestaw sterowników urządzeń obsługujących sprzęt zainstalowany w systemie. Te sterowniki tworzą interfejs umożliwiający aplikacjom skorzystanie ze sprzętu. W odróżnieniu od DOS-u, jedynie kilka aplikacji Windows odwołuje się do sprzętu bezpośrednio. Takimi wyjątkami, podobnie jak w DOS-ie, są zwykle narzędzia dyskowe, wymagające niższego poziomu dostępu do sprzętu niż oferują sterowniki Windows.
32-bitowy dostęp do dysku
W normalnych warunkach interfejs sprzętu dostarczany przez sterowniki urządzeń Windows działa jako uzupełnienie innych interfejsów dostarczanych przez DOS i systemowy BIOS. Na przykład, gdy aplikacja Windows chce uzyskać dostęp do ekranu, wywołuje odpowiednią funkcję sterownika wideo w Windows. Jednak w przypadku dostępu do dysku ta sama aplikacja zwykle użyje standardowego wywołania Int 21 h, tak samo jak aplikacja DOS. W odpowiedzi DOS wywołuje przerwanie Int 13h systemowego BIOS-u, który odwoła się do sterownika twardego dysku.
Problem takiego rozwiązania polega na tym, że mimo iż Windows i aplikacja działają w trybie chronionym, DOS i Windows wymagają, by procesor działał w trybie rzeczywistym (zwanym w Windows trybem wirtualnym 8086). Z tego powodu podczas procedury dostępu do dysku, jeśli procesor działa w trybie chronionym, musi zostać przełączony do wirtualnego trybu rzeczywistego w celu obsłużenia wywołania Int 21 h, a następnie z powrotem przełączony do trybu chronionego. Gdy DOS kończy przetwarzanie wywołania
Int 21 h, generuje wywołanie Int 13h BIOS-u, w związku z czym procesor musi ponownie zostać przełączony w tryb wirtualny i z powrotem w celu obsługi tego przerwania. Gdy wywołanie dotrze w końcu do kontrolera dysku, dysk odczytuje z nośnika żądane informacje i cały proces zaczyna się jeszcze raz, tym razem w celu przesłania odczytanych danych do aplikacji.
Takie przełączanie trybów procesora znacznie wydłuża procedurę dostępu do dysku, podobnie jak stosunkowo powolne działanie większości wersji BIOS-u. Windows 3.1 zawiera więc mechanizm o nazwie 32-bitowy dostęp do dysku (lub fastdisk), który przyspiesza cały proces poprzez wyeliminowanie wywołań BIOS-u i części przełączeń trybu pracy procesora.
Fastdisk to w rzeczywistości sterownik urządzenia działający w trybie chronionym, który komunikuje się bezpośrednio z kontrolerem twardego dysku, zastępując w tym systemowy BIOS. Aplikacje działają normalnie, generując wywołanie Int 21h DOS-u i wymuszając przełączenie procesora do trybu wirtualnego. Jednak gdy procesor powróci do trybu chronionego w celu przechwycenia przerwania Int 13h wygenerowanego przez DOS. nie przekazuje już sterowania do BIOS-u. Zamiast tego sterownik fastdisk przetwarza wywołanie Int 13h i sam komunikuje się z kontrolerem twardego dysku, cały czas pozostając w trybie chronionym.
Ponieważ sterownik fastdisk komunikuje się bezpośrednio z kontrolerem dysku, obsługuje jedynie sprzęt zgodny z modelem kontrolera Western Digital 1003, używanym przez wszystkich producentów dysków IDE. W przypadku dysków SCSI nie można wykorzystać sterownika fastdisk.
Patrz „Polecenia ATA", rozdział 15. str. 892
W wielu systemach Windows można zauważyć znaczne zmniejszenie czasu dostępu do dysku wynikające z użycia mechanizmu fastdisk. Fastdisk pozwala także na uruchamianie, przy tej samej ilości pamięci, większej ilości programów dla DOS. Ponieważ DOS nie zajmuje się już odwołaniami do BIOS-u, jest lepiej przygotowany na wykorzystanie w maszynach wirtualnych.
Windows 9x Pomimo iż wielu użytkowników nadal polega na linii poleceń DOS-u, to jednak DOS nie jest już środowiskiem wybieranym przez większość świata PC. Windows 3.1 do niedawna był najbardziej powszechnym interfejsem użytkownika, jednak został już wyparty przez gwałtownie nabierający popularności Windows 95 i ostatnio przez Windows 98. Ostatecznie, Windows 3.1 nie może być uważany za system operacyjny (choć akurat nad tym od lat toczą się dyskusje). Działa on, bazując na DOS-ie i jest całkowicie zależny od mechanizmów DOS-u w kwestiach
uruchamiania się, przechowywania plików oraz ich utrzymywania.
Problemy sprzętowe a problemy programowe Jedna z najbardziej irytujących sytuacji przy naprawie komputera występuje wtedy, gdy po otwarciu obudowy i przetestowaniu całego sprzętu okazuje się, że problem leży w oprogramowaniu, a nie w sprzęcie. Wielu osobom zdarzało się wydać pokaźne sumy na wymianę sprzętu tylko dlatego, że wydawało im się, że problem leży w błędnie działającym sprzęcie, podczas gdy rzeczywistym winowajcą było oprogramowanie. W celu wyeliminowania takich pomyłek, czasem dość drogich, powinieneś umieć odróżniać problemy ze sprzętem od problemów z oprogramowaniem. Na szczęście dokonanie takiego osądu jest stosunkowo łatwe. Problemy z oprogramowaniem są zwykle powodowane przez sterowniki urządzeń i programy rezydentne ładowane w plikach CONFIG.SYS i AUTOEXEC.BAT. Jedną z pierwszych rzeczy, jakie powinieneś uczynić, przystępując do naprawy źle działającego systemu, jest uruchomienie komputera z dyskietki DOS, na której w ogóle nie ma plików CONFIG.SYS i AUTOEXEC.BAT. Następnie sprawdź, czy występuje problem. Jeśli zniknął, przyczyna najprawdopodobniej leży w zawartości jednego z tych plików.
Aby wyizolować problem, zacznij odtwarzać sterowniki urządzeń i programy rezydentne ładowane w plikach CONFIG.SYS i AUTOEXEC.BAT. Odtwarzaj po jednym sterowniku naraz (zaczynając od pliku CONFIG.SYS). Na przykład przywróć jedno wywołanie w pliku CONFIG.SYS, uruchom ponownie komputer i sprawdź, czy problem pojawił się ponownie. Gdy odkryjesz, który sterownik lub program rezydentny powoduje problemy, być może będziesz mógł temu zaradzić, zmieniając kolejność ładowania sterowników w plikach CONFIG.SYS i AUTOEXEC.BAT. Możesz jednak być zmuszony do zaktualizowania sprawiającego kłopoty sterownika lub programu rezydentnego.
Windows 95 może być nazywany systemem operacyjnym, ale na poziomie systemu wcale nie jest taką rewelacją, jak przypuszczano przed jego ukazaniem się. Prawdę mówiąc, Windows 95 jest kombinacją nowej wersji DOS-u (według polecenia VER jest to DOS 7.0) oraz nowego interfejsu Windows (nazwanego Explorer). Windows 95 łączy środowisko DOS-u i Windows w bardziej spójny system, niż kombinacja DOS/Windows 3.1. Windows 95 automatycznie uruchamia graficzny interfejs użytkownika, ale zmiana jednego znaku w pliku tekstowym MSDOS.SYS powoduje uruchamianie się komputera w trybie DOS-u, z którego można uruchomić graficzny interfejs Windows poprzez wpisanie WIN. Brzmi znajomo?
Porównanie Windows 95 z DOS-em Wiele elementów Windows 95 bazuje na tych samych rozwiązaniach, co DOS i Windows 3.11, stanowi jednak ich logiczne rozwinięcie. W Windows 95 występują
nadal te same pliki systemowe 1O.SYS oraz MSDOS.SYS, z tym że cały kod zawarty jest w IO.SYS, a MSDOS.SYS stał się plikiem tekstowym, konfigurującym proces uruchamiania komputera.
Podczas uruchamiania komputera IO.SYS automatycznie ładuje do pamięci odpowiedniki plików HIMEM.SYS, IFSHLP.SYS oraz SETVER.EXE. W plikach CONFIG.SYS oraz AUTOEXEC.BAT nadal można umieszczać sterowniki urządzeń i programy, ale 32-bitowe sterowniki urządzeń używane przez Windows 95 oraz większość konfiguracji systemu wgrywane są poprzez wpisy Rejestru Windows 95. Na koniec uruchamiany jest plik WIN.COM i Windows 95 zostaje oficjalnie uruchomiony.
Rejestr jest bazą danych informacji, ustawień konfiguracyjnych oraz parametrów przez cały czas dostępnych dla wszystkich modułów Windows 95. Zastępuje on właściwie nie tylko funkcje plików AUTOEXEC.BAT i CONFIG.SYS, ale także i plików *.INI kon-figurujących Windows 3.1. Opisaną wcześniej procedurę rozwiązywania problemów można równie dobrze zastosować przy Rejestrze Windows 95.
Bądź bardzo ostrożny podczas uaktualnienia Windows 3.1 do Windows 95 - wiele ustawień i plików *.INI starszej wersji znajdzie się w Rejestrze Windows 95. Gdy to nastąpi, zmiana plików INI nie da pożądanych rezultatów, ponieważ programy korzystają z ustawień zapisanych w rejestrze.
Rejestr systemu jest zapisywany w dwóch plikach na dysku: SYSTEM.DAT oraz USER.DAT. SYSTEM.DAT zawiera ustawienia specyficzne dla danego komputera, w pliku USER.DAT zawarto konfigurację dostosowaną do zalogowanego w systemie użytkownika. Dzięki utrzymywaniu wielu plików USER.DAT, tego samego komputera mogą używać różni ludzie, tworząc dostosowane do siebie konfiguracje systemu i pulpitu. Pliki rejestru mogą być importowane, eksportowane, zmieniane, można tworzyć ich kopie bezpieczeństwa, a następnie je przywracać - wszystko to w celu utrzymania, modyfikacji oraz zabezpieczania ustawień poszczególnych użytkowników komputera.
Windows 95 nadal standardowo używa tego samego co DOS systemu plików FAT, z zachowaniem struktury MBR (Master Boot Record), DBR (DOS Boot Record), FAT-ów oraz katalogów. Podstawowym rozszerzeniem systemu plików jest zdolność do używania długich nazw plików i katalogów (aż do 255 znaków), wraz z zachowaniem zgodności wstecz z poprzednimi wersjami FAT-u i narzędzi dyskowych. Windows 95 dokonuje tego poprzez przechowywanie dwóch nazw każdego pliku i katalogu - długiej nazwy oraz nazwy obciętej - zachowującej zgodność z DOS-owym standardem 8.3. Dzięki temu każdy plik Windows 95 może zostać odczytany przez aplikacje DOS i Windows 3.1, choć zapisanie w nim zmian może spowodować utracenie długiej nazwy pliku. Jeśli na przykład uruchomisz starszą wersję programu
diagnozującego i naprawiającego strukturę plików na dysku -jak Norton Disk Doctor - na napędzie z FAT-em Windows 95, możesz utracić długie nazwy wszystkich plików i katalogów. Uaktualnione wersje większości aplikacji Windows 95 są w stanie obsłużyć długie nazwy plików.
Wersje
Od czasu pierwszego wydania Windows 95 Microsoft wypuścił całkiem sporo poprawek, a także dwa znaczące kolejne wydania. Windows 95 OEM Service Release 2 (OSR2) jest obecnie dostępny jedynie przy zakupie nowego komputera lub dysku u autoryzowanego OEM (original eąuipment manufacturer) Microsoftu. Wynika to głównie z tego, że w nowej wersji występuje najnowszy system plików FAT32, zaprojektowany w celu znacznego poprawienia efektywności większych dysków twardych, sprzedawanych obecnie w komputerach osobistych.
Wersja OSR2 Windows 95 została wprowadzona w ten sposób nie po to, aby zirytować miliony użytkowników (co uczyniła), ale po to, aby zabezpieczyć ich przed niezgodność ia-mi, które mogłyby zaistnieć w wyniku zainstalowania tej wersji na starszym sprzęcie. Większość innych poprawek i ulepszeń systemu operacyjnego zawartych w OSR2 może być zastosowana do istniejących systemów Windows 95 i jest za darmo dostępna na internetowym serwerze Microsoftu.
Windows 98 posiada wbudowaną obsługę dysków FAT32; umożliwia także konwersję istniejących partycji FAT16 na partycje FAT32. W Windows 98 istnieje wiele innych nowych właściwości i narzędzi, jednak w stosunku do OSR2 zmieniło się niewiele elementów odnoszących się do sprzętu.
Arhitektura Windows 9x Większość elementów architektury systemu Windows 9x jest podobna do Windows 3.1. tyle że przepisana w 32-bitowym kodzie. Kluczowe elementy systemu operacyjnego w dalszym ciągu znajdują się w modułach Kernel, User i GDI, jednak wszystkie trzy moduły występują teraz w wersjach 16- i 32-bitowych. Wersje 32bitowe zapewniają lepszą wydajność i obsługę 32-bitowych aplikacji, podczas gdy wersje 16-bitowe zostały pozostawione w celu zapewnienia zgodności wstecz.
Menedżer maszyn wirtualnych
W Windows 9x aplikacje działają w oddzielnych, odizolowanych środowiskach zwanych maszynami wirtualnymi. Utworzona przez Menedżer maszyn wirtualnych (który zastąpił moduł WIN386.EXE z Windows 3.1), każda maszyna wirtualna zawiera wszystkie usługi potrzebne do działania aplikacji. Poprzez odizolowanie każdej z aplikacji wewnątrz własnego środowiska Windows 9x jest w stanie zabezpieczyć resztę systemu przed skutkami awarii pojedynczej, błędnie napisanej aplikacji.
Plug and Play Prawdopodobnie największą zmianą w Windows 9x z punktu widzenia sprzętu jest wprowadzenie obsługi mechanizmu Plug and Play (PnP). Plug and Play jest standardem umożliwiającym systemowi operacyjnemu automatyczną negocjację zasobów systemowych potrzebnych poszczególnym urządzeniom i odpowiednią konfigurację tych urządzeń. Większość produkowanych obecnie urządzeń zewnętrznych dla komputerów
osobistych jest zgodna ze standardem PnP, dzięki czemu instalacja nowego sprzętu zwykle sprowadza się do włożenia karty do gniazda lub podłączenia kabla do odpowiedniego portu.
Aby móc zaimplementować tę funkcję, Windows 9x używa modułu o nazwie Menedżer konfiguracji (Configuration Manager). Menedżer konfiguracji składa się z wielu mirne-ratorów magistrali (bus emtmerators) odpowiedzialnych za skanowanie różnych magistrali rozszerzeń systemu w celu wykrycia podłączonych do nich urządzeń. Te numeratory tworzą drzewo sprzętu zawierające wszystkie magistrale i urządzenia w systemie.
Gdy inwentaryzacja sprzętu w systemie zostanie zakończona, Menedżer konfiguracji ładuje sterownik dla każdego urządzenia w drzewie urządzeń. Wszystkie sterowniki Windows 9x są 32-bitowymi programami działającymi w trybie chronionym, dzięki czemu mogą być ładowane do pamięci dużo efektywniej niż ich rzeczywiste odpowiedniki z Windows 3.1, które do załadowania wymagały pamięci konwencjonalnej (pamięci poniżej 640 kB).
Po załadowaniu sterowników Menedżer konfiguracji używa tzw. arbitratorów zasobów (resource arbitrators] w celu wynegocjowania zasobów sprzętowych, jakie mają zostać przydzielone każdemu z urządzeń. Te arbitratory rozwiązują wszelkie konflikty, jakie mogą zaistnieć pomiędzy urządzeniami i wyznaczają najlepszą kombinację ustawień dla danego sprzętu.
FAT32
Oryginalna wersja Windows 95 posiadała tylko system FAT, wersje późniejsze oferowały nową alternatywę - FAT 32. Windows 95 Service Release 2 jest sprzedawany wyłącznie wraz z nowymi komputerami. Większość innych poprawek i ulepszeń systemu operacyjnego jest udostępniana za darmo na internetowej stronie Microsoftu, ale FAT32 można nabyć w sklepach jedynie wraz z Windows 98 (o nazwie kodowej Memphis).
Podstawową zaletą FAT32 jest jego zdolność do obsługiwania większych twardych dysków. Gdy projektowano FAT, na pewno nikt nawet nie wyobrażał sobie, że zwykłe komputery domowe będą posiadały dyski o pojemności sięgającej ponad 2 GB, co stało się dziś standardem. Są to także największe dyski, jakie jest w stanie obsłużyć system plików FAT. Innym problemem związanym z użytkowaniem FAT-u na dużych dyskach twardych jest olbrzymi rozmiar klastrów (jednostek alokacji), powodujący bardzo dużą utratę wolnego miejsca, wynikającą z różnic pomiędzy rzeczywistą wielkością plików, a rozmiarami jednostek alokacji. FAT32 pokonuje oba te problemy, umożliwiając obsługiwanie dysków o wielkości do 2 TB (2000 GB), a zarazem wykorzystując dużo mniejsze klastry. Na dysku o pojemności 2 GB FAT stosuje klastry o rozmiarze 32 kB, podczas gdy wielkość klastra na tym samym dysku w systemie plików FAT32 wynosi tylko 4 kB. Rezultatem większej efektywności systemu plików jest możliwość zapisywania od 10 do 15 procent więcej danych. Nawiasem mówiąc, jeśli wydaje Ci się, że 2 TB to niemożliwa do wykorzystania ilość wolnego miejsca, zwróć uwagę na fakt, że w ciągu 15 lat pojemność twardych dysków przeciętnego PC-ta wzrosła z 10 MB do 2 GB, czyli o 20000 procent. W tym tempie wzrostu Twój domowy komputer w roku 2010 powinien posiadać twardy dysk o pojemności 400 TB (najprawdopodobniej działający pod kontrolą systemu plików FAT256). FAT32 przełamuje również wiele innych oczywistych ograniczeń systemu FAT. Na przykład FAT32 może korzystać tylko z jednej z kopii FAT-u i w razie jej uszkodzenia, przełączyć się na kopię drugą, wykorzystywaną jako kopia bezpieczeństwa. Nie musi już być określana wielkość głównego katalogu -jest ona przydzielana w miarę potrzeb. Struktura głównego katalogu w systemie FAT32 może być umieszczona w dowolnym miejscu na dysku i stanowi łańcuch klastrów tworzony w ten sam sposób co podkatalogi.
Pomimo iż nie zostało to jeszcze zaimplementowane, rozwiązania zastosowane w systemie plików FAT32 być może pozwolą na zmienianie w razie potrzeby wielkości partycji. Zdolność ta może okazać się równie wielkim przełomem, jak umożliwienie przez DOS 4.0 zakładania partycji powyżej 32 MB.
System plików FAT32 został wprowadzony przez FDISK wersji SR2 systemu Windows 95. Jeśli spróbujesz założyć partycję większą niż 512 MB, program zapyta Cię, czy chcesz włączyć wspieranie dużych dysków. Jeśli odpowiesz „tak", wszystkie partycję powyżej 512 MB będą korzystać z systemu plików FAT32.
FAT32, jak i sam Windows 95, jest tak zaprojektowany, by nie tracąc swych rozszerzonych funkcji, zapewniał maksymalną kompatybilność wstecz. Nadal obsługuje DOS-owe programy w trybie rzeczywistym, jak również te obecne - w trybie chronionym. Oznacza to, że możesz uruchomić komputer z jakiejkolwiek dyskietki DOS i nadal mieć dostęp do danych na twardym dysku. Niestety, oprogramowanie wykorzystujące bezpośredni dostęp do twardego dysku, jak na przykład niektóre programy naprawiające dyski, nie będzie działać i może spowodować uszkodzenia struktur FAT32.
Z powodu udostępniania tak wielu możliwości FAT32 utracił trochę z dodatkowej prędkości. Prawdę mówiąc, dysk sformatowany w systemie FAT32 nie będzie szybszy, a nawet może być trochę wolniejszy, od dysku w systemie FAT.
Widows NT W zupełnym przeciwieństwie do DOS, Windows 3.1 czy też Windows 95, Windows NT jest 32-bitowym systemem operacyjnym zaprojektowanym na podstawie przewidywań przyszłego rozwoju komputerów domowych i sieci. Podstawowym problemem hamującym rozwój technologii komputerowych jest kompatybilność wstecz. Trudno jest sprzedać produkt zmuszający użytkownika do pogodzenia się z utratą pieniędzy zainwestowanych w dotychczasowy sprzęt i oprogramowanie.
Windows 95 jest znacznie bliższy kombinacji DOS-u i Windows 3.1, niż Windows NT. Duże firmy nie będą rozważać przejścia na nowy system operacyjny, jeśli ma to je kosztować utratę milionów dolarów wydanych na 16-bitowe oprogramowanie i szkolenie użytkowników. Windows NT jest właśnie takim produktem i jego udział na rynku od oryginalnego wydania w 1993 roku stopniowo, lecz stale rośnie. Windows NT korzysta zarówno z interfejsu Explorera Windows 95, jak i programu rynkowego, mającego na celu wywołanie masowej produkcji oprogramowania 32-bitowego. Choć w przeszłości sprzedaż systemu operacyjnego Windows NT została opóźniona z powodu małej ilości użytecznych aplikacji 32-bitowych, popularność systemu Windows 95 radykalnie tę sytuację odmieniła.
Windows NT jest zupełnie innym systemem operacyjnym niż DOS. Pomimo iż możesz otworzyć okno sesji DOS-u podczas pracy w GUI, nie jest to jego powłoka w tradycyjnym sensie. Jest to bardziej emulacja DOS-u, stworzona w celu udostępnienia użytkownikom znajomego interfejsu linii poleceń. Wiele DOS-owych programów nie uruchomi się w sesji DOS-u w Windows NT, nie jest również możliwe uruchomienie systemu operacyjnego w trybie tekstowym poprzedzającym uruchomienie graficznego interfejsu użytkownika (GUI), tak jak w Windows 95.
Windows NT, tak samo jak Windows 95, przechowuje ustawienia konfiguracji i
listę wgrywanych sterowników w Rejestrze systemu. Nie występują w nim pliki *.INI, AUTOEXEC.BAT czy też CONFIG.SYS. Co więcej, nie ma możliwości uaktualnienia Windows 95 do Windows NT. Po zainstalowaniu i skonfigurowaniu Windows NT musisz ponownie zainstalować i skonfigurować wszystkie dotychczas używane aplikacje.
Windows NT może używać systemu plików FAT w przypadku, gdy chcesz uruchomić komputer z dysku DOS i nadal mieć dostęp do jego napędów. Jednak niektóre z najbardziej zaawansowanych możliwości Windows NT są udostępniane tylko przez NTFS (NT File System). NTFS (jak FAT32) umożliwia tworzenie partycji do 2 TB, ale dodatkowo udostępnia kompresję plików, funkcje zabezpieczające oraz sprawdzające, bardzo ważne przy komputerach pracujących w środowisku sieciowym.
Podczas procesu instalacji Windows NT wszystkie ustawienia inicjujące dokonywane są na dysku FAT, który to, jeśli zechcesz, zostanie przekonwertowany przy końcu instalacji na NTFS. Konwersję dysku możesz przeprowadzić również później, za pomocą dostarczanego wraz z systemem operacyjnym programu CONVERT.EXE. Jest to jeden z niewielu przypadków, w których możesz dokonać konwersji istniejącego napędu na inny system plików, nie tracąc przy tym danych. Pamiętaj jednak, że od momentu konwersji na NTFS zawartość partycji nie będzie dostępna dla innych systemów operacyjnych. By powrócić do Windows 95, Windows 3.1 lub DOS-u, partycja NTFS musi zostać usunięta, a następnie na jej miejscu należy utworzyć partycję FAT.
Wersje Pierwsza wersja Windows NT nosiła nazwę 3.1, ponieważ została wydana w 1993 roku, kiedy Windows 3.1 był pierwszym 16-bitowym produktem z serii Windows. Interfejs graficzny był identyczny z Windows 3.1, nawet jeśli kryjąca się pod nim infrastruktura była całkowicie odmienna. Kolejne wersje (3.5 i 3.51) wprowadziły większe różnice pomiędzy wersje Server i Workstation tego systemu operacyjnego, gdyż pojawiła się możliwość tworzenia grup komputerów z Windows NT, zwanych domenami. W tych wersjach poprawiono także wykryte błędy, zastosowano pewne zmiany architektury (na przykład uczynienie TCP/IP domyślnym protokołem) oraz dodano nowe usługi, takie jak DHCP i WINS. Wersja 4.0 Windows NT była pierwszą, w której wprowadzono znaczące zmiany w wyglądzie systemu operacyjnego, dodając do niej ten sam interfejs Eksploratora, jaki zastosowano w Windows 9x.
Uruchamianie Windows NT Gdy uruchamiasz system Windows NT, proces ładowania jest identyczny z procesem ładowania DOS-u do momentu, w którym system odczytuje sektor startowy aktywnej partycji. Zamiast plików 1O.SYS i MSDOS.SYS Windows NT używa tzw. loadera (programu ładującego) systemu operacyjnego, pliku o nazwie NTLDR, który uruchamia proces wykrywania sprzętu i umożliwia wybór systemu operacyjnego, który ma zostać uruchomiony. Jeśli, na przykład, zainstalowałeś Windows NT w systemie z już działającym innym systemem operacyjnym, masz do wyboru możliwość uruchomienia tego systemu operacyjnego. Opcje uruchamiania są przechowywane w pliku o nazwie BOOT.INI.
Gdy zdecydujesz się na ładowanie systemu operacyjnego Windows NT, ładowany jest plik o nazwie NTDETECT.COM i rozpoczyna się wykrywanie sprzętu w komputerze. Zaraz po tym do pamięci jest ładowane jądro systemu Windows NT (NTOSK.RNL.EXE) oraz warstwa interfejsu sprzętu (hardware abstraction layer, plik HAL.DLL). Jądro jest odpowiedzialne za inicjalizację większej części systemu operacyjnego, łącznie ze sterownikami urządzeń, podsystemem Windows NT oraz usługami, a także plikiem stronicowania pamięci. Proces uruchamiania kończy się jednak dopiero wtedy, gdy wciśniesz kombinację klawiszy Ctrl+Alt+Del w celu załogowania się do systemu.
Komponenty Windows NT Jądro (kernel) Windows NT jest odpowiedzialne za rozdzielanie zadań i zarządzanie wątkami. Wątek (thread) jest najmniejszą jednostką aktywności procesora, jaką może obsłużyć Windows NT. Ponieważ Windows NT jest wielowątkowym systemem operacyjnym, kernel jest odpowiedzialny za to, aby wszystkie uruchomione wątki należące do różnych procesów otrzymały swoją część czasu procesora, oczywiście po wzięciu pod uwagę ich priorytetów.
Windows NT został zaprojektowany jako modularny system operacyjny, niezależny od zastosowanego sprzętu (czytaj: procesora). Aby to mogło być możliwe, moduł o nazwie HAL (hardware abstraction layer - warstwa abstrakcji sprzętu) tworzy wirtualny interfejs sprzętu zainstalowanego w komputerze. Zamiast komunikować się ze sprzętem bezpośrednio, jądro systemu operacyjnego oraz sterowniki urządzeń używają właśnie tego interfejsu. Ponieważ sam interfejs jest niezależny od sprzętu, stosunkowo łatwo jest przenieść cały system (tj. jądro, sterowniki urządzeń i inne komponenty) na inną platformę sprzętową, na przykład opartą na procesorze Digital Alpha.
Windows NT posiada dwa tryby pracy: tryb jądra oraz tryb użytkownika. Tryb jądra zapewnia dostęp do wszystkich zasobów systemu i instrukcji procesora. Jądro
systemu operacyjnego i HAL, oba działają w trybie jądra, podobnie jak Windows NT Executive. Executive składa się z następujących składników systemu operacyjnego:
•
Menedżer obiektów (Object Manager). Wszystkie zasoby Windows NT, włącznie z plikami i kartotekami, wątkami i procesami oraz segmentami i sekcjami pamięci, są reprezentowane przez abstrakcyjne formacje zwane obiektami. Menedżer obiektów zapewnia hierarchiczny system nazywania tych obiektów, który umożliwia śledzenie tworzenia i wykorzystania poszczególnych obiektów.
•
Menedżer l/O (l/O Manager}. Menedżer I/O jest odpowiedzialny za wszelkie funkcje wejścia i wyjścia w Windows NT oraz za zapewnienie działania wszelkich urządzeń komunikacyjnych zawartych w systemie.
•
Monitor odwołań ochrony (Security Reference Monitor}, Monitor odwołań ochrony (SRM) współdziała z podsystemem ochrony trybu użytkownika w celu kontroli dostępu do obiektów systemu Windows NT. Wszystkie żądania dostępu do obiektu przechodzą przez SRM, który przegląda listę kontroli dostępu do obiektu i porównuje jaz prawami dostępu.
•
Menedżer procesów (Process Manager}. Menedżer procesów kontroluje tworzenie i usuwanie obiektów procesów oraz wątków składających się na procesy.
•
Menedżer pamięci wirtualnej (Yirtual Memory Manager}. Menedżer pamięci wirtualnej jest odpowiedzialny za alokowanie chronionej przestrzeni adresowej dla każdego procesu działającego w systemie. Tak jak Windows 9x, Windows NT jako pamięć wirtualną może wykorzystać przestrzeń na dysku i zaalokować całkowitą ilość pamięci większą niż ilość pamięci RAM, jaka jest zainstalowana w systemie.
Mniej uprzywilejowany jest tryb użytkownika, w którym procesy działają w przestrzeniach odizolowanych od systemu operacyjnego i nie mogą go uszkodzić. W trybie użytkownika działają aplikacje współpracujące z użytkownikiem. Taki podział trybów umożliwia działanie zarówno aplikacjom zaprojektowanym dla Windows, jak i aplikacjom systemów OS/2 i POSIX, nie dając im bezpośredniego dostępu do jądra.
Systemy plików i odzyskiwanie danych Dyski twarde i inne nośniki zapewniają przechowanie danych. Jednak dane, które przechowują, muszą być w pewien określony sposób formatowane - a więc
segregowane w pliki i katalogi. Dopiero w ten sposób pojęcie „przechowywania danych" nabiera rozsądnej postaci. Rodzaj formatowania danych określa zastosowany system plików (fde system). Systemy plików są najczęściej zintegrowane z systemem operacyjnym, jednak niektóre z nich potrafią korzystać z kilku różnych systemów plików. Najpowszechniej dziś stosowanym systemem jest system oparty na tablicy alokacji plików (file allocation table). Jest to system stosowany od samego początku w DOS-ie i stał się on tak popularny, że dzisiaj praktycznie każde oprogramowanie systemowe go rozpoznaje. W dalszej części tego rozdziału przedstawione są struktury tego systemu plików, jak również znajduje się omówienie innych systemów: FAT32 oraz NTFS zastosowany w Windows NT.
Struktury dyskowe FAT By zarządzać plikami na dysku i umożliwić wszystkim aplikacjom zobaczenie jego zawartości, interfejs dyskowy nie jest zależny od typu używanego dysku. DOS używa wielu struktur. W poniższej liście wymienione zostały wszystkie struktury i obszary dysku definiowane i używane do zarządzania dyskami przez DOS, mniej •
Lokalne wywoływanie procedur (Local Procedurę Cali}. Mechanizm lokalnego wywoływania procedur zapewnia komunikację pomiędzy procesami serwera i klienta w tym samym systemie, podobnie jak mechanizm Remote Procedurę Cali jest wykorzystywany do komunikacji klient/serwer pomiędzy różnymi systemami. więcej w tej samej kolejności, w jakiej występują:
•
sektory startowe partycji podstawowej i rozszerzonej;
•
sektor startowy dysku DOS;
•
główny katalog;
•
tablice alokacji plików (FAT);
•
klastry (jednostki alokacji);
•
obszar danych;
•
cylinder diagnostyczny operacji zapisu i odczytu.
Na twardym dysku znajdują się wszystkie z powyższych struktur zarządzania dyskami, dyskietki również je posiadają, nie licząc cylindra diagnostycznego i sektorów startowych partycji rozszerzonej. Struktury te są tworzone przez DOS-owy program FDISK, którego nie można używać dla dyskietek, ponieważ dyskietki nie mogą zostać podzielone na partycje. Rysunek 23.3 zawiera prosty diagram ukazujący względne położenie DOS-owych struktur zarządzania dyskiem na 32 MB twardym dysku komputera IBM AT Model 339.
Niektóre napędy dysków wymiennych, takie jak Iomega Zip, funkcjonują jako napędy dyskietek o wysokiej pojemności. Nie posiadają głównego rekordu startowego ani cylindra diagnostycznego i nie mogą być partycjonowane tak jak dyski twarde. Inne napędy dysków wymiennych, takie jak Iomega Jaz, mogą być partycjonowane jak dyski twarde.
Każdy obszar dysku posiada swoje przeznaczenie i funkcję. Jeśli jeden z tych specjalnych obszarów zostanie uszkodzony, mogą z tego wyniknąć poważne konsekwencje. Zniszczenie jednej z wrażliwych struktur zwykle powoduje efekt domina, ograniczając dostęp do innych obszarów dysku lub powodując inne problemy z używanie dysku. Na przykład DOS nie potrafi odczytać lub zapisać plików, jeśli FAT zostanie zniszczony lub uszkodzony. Z tego powodu powinieneś dobrze poznać te struktury, aby móc w razie potrzeby je naprawić. Umiejętność odbudowy specjalnych tablic i obszarów na dysku jest podstawową sztuką przy odzyskiwaniu danych.
Rysunek 23.3. Struktury zarządzające dyskiem w systemie DOS, na przykładzie dysku Western Digital Caviar AC12100
Sektory startowe głównej partycji By dysk był dostępny dla wielu systemów operacyjnych, musi zostać podzielony na jedną do czterech partycji podstawowych. Każdy system operacyjny, łącznie z DOS-
em (do wersji 3.2), może posiadać tylko jedną partycje. DOS 3.3 i późniejsze wprowadziły rozszerzoną partycje DOS-u, umożliwiającą założenie wielu DOSowych partycji na jednym dysku. W DOS-owym programie FDISK możesz wybrać wielkość każdej partycji. Informacje o poszczególnych partycjach są umieszczone w ich sektorach startowych oraz w głównej tablicy położonej w sektorze startowym głównej partycji. Sektor startowy głównej partycji jest zawsze umieszczany w pierwszym sektorze całego dysku (cylinder O, głowica O, sektor I). Sektory startowe partycji rozszerzonych są umieszczone na początku każdej z partycji.
Sektor startowy głównej partycji (master partition boot sector) zawsze znajduje się w pierwszym sektorze całego dysku (cylinder O, głowica O, sektor 1) i zawiera następujące struktury: •
Główna tablica partycji (master partition table). Zawiera listę partycji na dysku oraz położenie ich sektorów startowych dysku. Ta tabela jest bardzo niewielka i może zawierać najwyżej cztery pozycje. Z tego powodu, aby móc dodać więcej partycji, systemy operacyjne, takie jak DOS, mogą podzielić pojedynczą partycje rozszerzoną na kilka logicznych dysków.
Podstawowa i rozszerzona partycja DOS-u DOS jest zaprojektowany do obsługi maksymalnie 24 partycji na pojedynczym dysku twardym (reprezentowanych przez litery od C: do Z:), jednak tablica partycji w sektorze startowym głównej partycji może pomieścić maksymalnie cztery pozycje. Aby obejść ten problem, program FDISK umożliwia tworzenie dwóch rodzajów partycji FAT: podstawowej partycji DOS-u oraz rozszerzonej partycji DOS-u. Pierwsza partycja FAT stworzona na dysku powinna być podstawową partycja, występującą w głównej tablicy partycji i dla systemu operacyjnego widoczną jako pojedyncza litera dysku.
Rozszerzona partycja DOS-u także występuje w głównej tablicy partycji, jednak różni się tym, że możesz wykorzystać jej powierzchnię do stworzenia wielu logicznych partycji, czyli tzw. wolumenów. Na pojedynczym dysku twardym możesz stworzyć tylko jedną rozszerzoną partycję DOS-u, dzięki czemu w głównej tablicy partycji nigdy nie wystąpią więcej niż dwie pozycje odnoszące się do dysków FAT. Dyski logiczne stworzone w rozszerzonej partycji DOS-u są dla systemu operacyjnego widoczne jako osobne litery dysków, jednak nie występują w głównej tablicy partycji. Dyski logiczne nie mogą być także partycjami aktywnymi, w związku z czym nie da się z nich uruchomić systemu. W rozszerzonej partycji DOS-u można utworzyć do 23 wolumenów (zakładając, że stworzono wcześniej podstawową partycję DOS-u, z którą liczba dostępnych partycji wzrasta do 24).
Każda z logicznych partycji (wolumen) w rozszerzonej partycji DOS-u zawiera rozszerzoną tablicę partycji (extended partition table) zawierającą informacje o danym wolumenie. Pozycja głównej tablicy partycji odnosząca się do partycji rozszerzonej zawiera odwołanie do rozszerzonej tablicy partycji pierwszego
wolumenu. Ta z kolei tablica zawiera odwołanie wskazujące lokalizację tablicy partycji drugiego wolumenu. Ten łańcuch odwołań łączy wszystkie logiczne partycję, dzięki czemu można się do nich odwołać z głównej tablicy partycji dysku. Oczywiście, niewiele osób ma powody do tworzenia 24 partycji FAT na pojedynczym dysku, jednak istnienie rozszerzonej partycji DOS-u pozwala na uniknięcie ograniczenia do czterech pozycji głównej tablicy partycji.
• Główny kod startowy (master boot code). Mały program wykonywany przez systemowy BIOS; główną funkcją tego programu jest przekazanie sterowania do systemu zapisanego w partycji, która została wyznaczona jako aktywna (startowa).
Ponieważ główny sektor startowy zawiera pierwszy program wykonywany przez system podczas uruchamiania komputera, często staje się on celem ataku twórców wirusów komputerowych. Wirus, który zniszczy lub uszkodzi główny sektor startowy, może uniemożliwić odszukanie przez BIOS aktywnej partycji, uniemożliwiając tym samym uruchomienie systemu. Ponieważ główny sektor startowy zawiera pierwszy program wykonywany przez system, zapisany w nim wirus ładowany jest do pamięci przed jakimkolwiek innym programem, który mógłby wykryć jego obecność. Aby usunąć wirusa głównego sektora startowego, musisz najpierw uruchomić system z czystej, niezainfekowanej dyskietki, a następnie uruchomić program antywirusowy.
Każda DOS-owa partycja zawiera w swoim pierwszym sektorze DOS-owy sektor startowy. W DOS-owym programie użytkowym FDISK możesz ustawić każdą z podstawowych partycji jako aktywną (lub startową). Sektor startowy głównej partycji oddaje kontrolę sektorowi startowemu partycji aktywnej za każdym uruchomieniem lub restartem komputera. Dodatkowe partycję podstawowe mogą być ustawione dla Novell NetWare, HPFS (OS/2), NTFS, AIX (UNIX), XENIX, a także innych systemów operacyjnych. Partycję innych systemów operacyjnych nie mogą zostać odczytane pod DOS-em, partycję DOS-owe natomiast nie mogą być zazwyczaj odczytane pod innymi systemami operacyjnymi (OS/2 i Windows NT potrafią odczytać partycję FAT, system plików HPFS (High Performance File System) jest używany wyłącznie przez OS/2, natomiast NTFS jest używany tylko przez Windows NT). Twardy dysk musi zostać partycjono-wany, by mógł być używany przez system operacyjny. Musisz partycjonować dysk, nawet jeśli chcesz stworzyć tylko pojedynczą partycję. W tabeli 23.4 ukazany jest format tablic partycji w głównym wpisie startowym MBR (Master Boot Record).
W tabeli 23.5 ukazane są standardowe wartości i znaczenia bajtu określającego system (System Indicator Byte).
DOS-owy sektor startowy napędu Sektor startowy partycji jest pierwszym sektorem na każdym z obszarów dysku adresowanego jako napęd (lub dysk logiczny DOS-u). Na przykład przy stacji dysków sektor ten jest pierwszym sektorem na dyskietce, ponieważ DOS rozpoznaje dyskietkę jako napęd bez potrzeby jej partycjonowania. Przy twardym dysku sektor lub sektory startowe napędu umieszczane są w pierwszym sektorze obszaru dysku zajętego przez nierozsze-rzonąpartycję lub jakikolwiek inny obszar rozpoznawany przez DOS jako napęd. Boot sector (sektor startowy partycji) przypomina sektor startowy partycji MBR z dwóch powodów: •
Blok parametrów dysku (Disk paratneter block lub Media parameter block). Zawiera specyficzne dane o napędzie, jak rozmiar, ilość użytych sektorów, rozmiar jednostek alokacji oraz nazwę partycji.
•
Kod sektora startowego - jest to program rozpoczynający ładowanie systemu operacyjnego. Dla DOS i Windows 9x jest to plik IO.SYS.
Te specjalne sektory zawierają program oraz pewne szczególne tablice danych, przypominając w tym zresztą sektor startowy głównej partycji. W wypadku stacji dysków BIOS wgrywa pierwszy sektor startowy, przy twardych dyskach wgrywany jest sektor startowy głównej partycji. Program zawarty w sektorze startowym przejmuję kontrolę nad komputerem, przeprowadza kilka testów, a następnie usiłuje wgrać pierwszy plik systemowy DOS-u (IO.SYS). Sektor startowy napędu jest niewidoczny dla uruchomionego już DOS-u, znajduje się poza obszarem danych, na którym przechowywane są pliki.
Wiele dzisiejszych systemów umożliwia uruchamianie komputera z różnych, niekoniecznie standardowych, dysków. Ich obsługa zależy od BIOS-u komputera. Stosowane dziś napędy, rozpoznawane poprawnie przez BIOS jako urządzenia startowe, to najczęściej, prócz standardowych, napędy CD-ROM ATAPI, dyski ZIP lub LS-120.
Sektor startowy napędu tworzysz, używając polecenia DOS: FORMAT (format wysokiego poziomu). Twarde dyski posiadają sektory startowe napędu na początku każdej partycji, zarówno podstawowej, jak i rozszerzonej. Pomimo iż wszystkie dyski logiczne posiadają obszar programu oraz obszar tablicy danych, wykonywany jest wyłącznie program zawarty w sektorze startowym aktywnej partycji twardego dysku. Inne sektory startowe są odczytywane podczas uruchamiania się DOS-u, ale wyłącznie w celu odczytania tablic danych i określenia parametrów napędu. Sektor startowy napędu zawiera program i dane. Pojedyncze tablice danych w tym sektorze nazywane są blokiem parametrów nośnika lub blokiem parametrów dysku. DOS wymaga zawartych w nim informacji by zweryfikować pojemność napędu dyskowego oraz do lokalizacji ważnych obszarów dysku, jak na przykład tablicy FAT. Format tych danych jest bardzo specyficzny.
Błędy mogą powodować problemy z dostępem do dysku oraz uruchamianiem się komputera z dysku. Niektóre wersje OEM DOS-u nie stosują standardowych ustawień tych danych, co może powodować problemy z wymianą dysków formatowanych pod różnymi wersjami DOS-u. Niektóre późniejsze wersje mogą być bardziej wymagające, więc jeśli podejrzewasz, że różnice w sektorze startowym uniemożliwiają dostęp do dysku, możesz użyć programu użytkowego, jak DOS-owy DEBUG lub Norton Utilities, by skopiować sektor startowy nowszej wersji DOS-u na dysk sformatowany wersją starszą. Krok ten umożliwi nowej wersji DOS-u odczytywanie dysku, a zarazem nie powinien powodować problemów ze starszą, mniej wymagającą wersją. Problem ten nigdy nie występuje przy używaniu różnych wersji DOS-u z tego samego wydania OEM, ale możesz się na niego natknąć, jeśli spróbujesz odczytać dysk w DOS-ie innego wydania. Tabela 23.6 ukazuje format i układ DOS-owego rekordu startowego DBR (DOS Boot Record).
Katalog główny Katalog główny to prosta baza danych zawierająca informacje o plikach zapisanych w partycji FAT. Każdy rekord tej bazy danych ma 32 bajty długości, przy czym poszczególne pola i rekordy nie są rozdzielone żadnymi specjalnymi znakami.
Kartoteka zawiera prawie wszystkie informacje, jakie system operacyjny ma na temat pliku, włącznie z wymienionymi poniżej.
• Nazwa pliku i rozszerzenie. Ośmioznakowa nazwa i trzyznakowe rozszerzenie pliku. Kropka pomiędzy nazwą a rozszerzeniem pliku jest wstawiana domyślnie, ale nie występuje w tablicy. (Aby zobaczyć, jak Windows 9x rozszerza nazwy plików do 255 znaków wewnątrz standardowej struktury kartoteki 8.3, zajrzyj do sekcji „VFAT i długie nazwy plików" w tym rozdziale.) • Bajt atrybutów pliku. Bajt zawierający znaczniki reprezentujące standardowe atrybuty pliku DOS-u, wykorzystujący format pokazany w tabeli 23.8. • Data/czas ostatniej modyfikacji. Data i czas, w którym plik został utworzony lub ostatnio zmodyfikowany. • Rozmiar pliku. Rozmiar pliku w bajtach. • Wskaźnik na pierwszy klaster. Numer klastra w partycji, w którym zapisany jest początek pliku. Aby poznać więcej informacji na temat klastrów, zajrzyj do sekcji „Klastry (jednostki alokacji)" w dalszej części tego rozdziału.
Istnieją informacje o pliku, które nie są zawarte w katalogu. Należą do nich lista pozostałych klastrów zajętych przez plik oraz informacja, czy plik jest pofragmentowany, czy w całości. Te informacje są zawarte w tablicy FAT.
Istnieją dwa podstawowe typy katalogów: katalog główny oraz podkatalogi. Każdy napęd może posiadać tylko jeden katalog główny, jest on zapisany zawsze w stałej pozycji na dysku, zaraz za dwiema kopiami tablicy FAT. Wielkość głównych katalogów jest zmienna, w zależności od typu i pojemności dysku, ale jego położenie na danym dysku jest stałe. Główny katalog po utworzeniu ma stałą długość i nie może zostać rozszerzony w celu pomieszczenia większej ilości wpisów. Twarde dyski posiadają zazwyczaj główny katalog umożliwiający przechowanie 512 wpisów. Podkatalogi przechowywane są na dysku jako pliki i w związku z tym nie mają stałego ograniczenia długości.
Tabela 23.7. Limity wpisów katalogu głównego poszczególnych urządzeń)
Jedną z zalet typu plików FAT32 jest brak ograniczenia w rozmiarze katalogu głównego, a to dzięki możliwości umieszczenia go w dowolnym la dysku.
Katalogi oraz podkatalogi są organizowane w taki sam sposób. Katalog jest małą bazą danych ze stałą, 32-bajtową długością poszczególnych wpisów. W zapisach bazy danych przechowywane są ważne informacje o pojedynczych plikach, wraz z ich nazwą. Informacja o katalogu jest połączona z FAT-em poprzez początkowy wpis klastra. Prawdę mówiąc, gdyby na dysku nie było plików zajmujących więcej niż jeden klaster, FAT nie byłby potrzebny. Katalogi zawierają wszystkie informacje potrzebne DOS-owi do zarządzania plikami, poza l i sta zajmowanych przez plik klastrów innych niż pierwsze. FAT zawiera wymagane informacje o pozostałych zajmowanych przez plik klastrach.
By odnaleźć plik na dysku, musisz odczytać jego wpis w katalogu, z którego uzyskasz informacje o pierwszym zajmowanym przez plik klastrze oraz jego długości. Następnie musisz przejść do tablicy alokacji plików, w której możesz podążyć za łańcuchem zajmowanych przez plik klastrów, aż do osiągnięcia końca pliku. DOS-owe wpisy katalogów zajmują 32 bajty i mają format ukazany w tabeli 23.8.
W tabeli 23.9 opisany został bajt atrybutu DOS-owych plików.
Tabela 23.9. Bajt atrybutu DOS-owych plików
Tablice alokacji plików Tablica alokacji plików (FAT) jest tablicą liczb określających alokację każdego klastra na dysku. Każdy klaster dyskowego obszaru danych posiada pojedynczy wpis w tablicy alokacji plików. Sektory w innych obszarach dysku (nie danych) znajdują się poza obszarem kontrolowanym przez FAT. Poza zasięgiem FAT-u znajdują się również sektory startowe, sektory używane przez główny katalog oraz przez sam FAT. FAT nie zarządza każdym sektorem danych z osobna, lecz łączy je w klastry nazywane także jednostkami alokacji. Klaster jest jednym lub większą ilością sektorów przeznaczonych przez DOS na jednostkę alokacji wolnego miejsca. Najmniejszym możliwym obszarem zużywanego przez plik miejsca na dysku jest jeden klaster; wszystkie pliki zajmują miejsce w całych klastrach (klastry nie mogą zostać podzielone na mniejsze jednostki). Jeśli plik jest o jeden bajt większy niż jeden klaster, zajmie dwa. DOS określa wielkość klastrów podczas wysokopoziomowego formatowania dysku poleceniem DOS-u FORMAT.
Możesz myśleć o FAT jako typie arkusza kalkulacyjnego śledzącego alokację klastrów dysku. Każda komórka arkusza kalkulacyjnego odpowiada pojedynczemu klastrowi dysku; numer zawarty w komórce jest kodem określającym, czy klaster jest używany przez plik, a jeśli tak, gdzie znajduje się kolejny.
Liczby zawarte w tablicach FAT są zapisywane w systemie szesnastkowym (Hex) i mają 12- lub 16-bitową długość. 16-bitowe liczby w tablicach FAT można w prosty sposób edytować, ponieważ każda z nich zajmuje 2 bajty. Ponieważ większość edytorów za jednostkę danych przyjmuje bajt, a 12-bitowe liczby zajmują l" bajtu, przy ich edycji mogą wystąpić problemy. Edytując FAT, musisz wykonać pewne przeliczenia z systemu szesnastkowego na binarny, by skonwertować wyświetlaną jednostkę na numer FAT-u. Na szczęście (o ile nie używasz DOS-owego programu DEBUG), większość dostępnych programów użytkowych posiada tryb edycji FAT-u, który automatycznie przeprowadza wymaganą konwersję. Większość z nich, wyświetla liczby w formacie dziesiętnym, co dla większości ludzi stanowi dodatkowe udogodnienie.
Pierwsze dwa wpisy FAT zawierają informacje o tablicy. Wpisy zawierające informacje o wolumenie rozpoczynają się po tych dwóch. Większość wpisów FAT zawiera odnośniki do poszczególnych jednostek alokacji zawierających kontynuację danego pliku. Jednak niektóre wejścia posiadają wartości charakterystyczne. Są to:
•
0000. Oznacza, że jednostka nie jest używana przez plik.
•
FFF7. Oznacza, że przynajmniej jeden sektor w jednostce jest uszkodzony i że jednostka nie powinna przechowywać danych.
•
FFF8-FFFF. Oznacza zakończenie pliku i brak odnośnika do następnej jego części.
DOS-owy program FDISK określa, czy na dysku zostanie zapisany 12-, czy też 16bitowy FAT, pomimo iż FAT jest zapisywany przy wysokopoziomowym formatowaniu dysku (FORMAT). Na wszystkich dyskietkach zapisywany jest FAT 12-bitowy. Na twardych dyskach o pojemności większej niż 16 MB (32768 sektorów) DOS zapisuje 16-bitowy FAT, na dyskach mniejszych zapisywany jest FAT 12-bitowy.
DOS tworzy dwie kopie FAT-u. Każda z nich zajmuje ciągłą przestrzeń na dysku, druga kopia jest zapisywana zaraz po poprzedniej. Niestety, DOS używa drugiej kopii FAT-u tylko wtedy, gdy nastąpi uszkodzenie sektorów kopii pierwszej. Jeśli pierwsza kopia FAT-u zostanie uszkodzona, co zdarza się dość często, DOS nie zacznie używać drugiej kopii. Nawet polecenie DOS-u CHKDSK nie sprawdza i nie weryfikuje drugiej kopii FAT-u. Co więcej, za każdym razem, gdy DOS uaktualnia pierwszy FAT, duża jego część zostaje przekopiowana do drugiej kopii.
Jeśli pierwsza kopia została uszkodzona, a następnie uaktualniona przez DOS, duża część pierwszego FAT-u zostanie skopiowana na jego drugą kopię, równocześnie przenosząc na nią uszkodzenie. Po uaktualnieniu druga kopia najczęściej stanowi lustrzane odbicie pierwszej, wraz ze wszystkimi uszkodzeniami. Bardzo rzadko zdarza się. by obie kopie FAT-u różniły się przez dłuższy czas od siebie. Jeśli różnią
się one od siebie, a DOS zapisze coś na dysku, uaktualniając pierwszą kopię FAT-u, uaktualni również drugą kopię, zapisując w niej dane z kopii pierwszej. Dlatego właśnie programy naprawiające struktury dysków i odzyskujące dane, ostrzegają Cię byś przestał pracować zaraz po wykryciu różnic pomiędzy poszczególnymi kopiami FAT-u. Programy, takie jak Norton Disk Doctor, używają drugiej kopii FAT-u jako odnośnika do naprawy kopii pierwszej, lecz jeśli DOS uaktualnił już drugą kopię, naprawa może okazać się niemożliwa.
Klastry (jednostki alokacji) Termin klaster zastał zmieniony na termin jednostka alokacji w DOS-ie 4.0. Nowszy termin jest poprawny, ponieważ klaster jest najmniejszą jednostką alokacji, którą DOS jest w stanie uchwycić podczas zapisu lub odczytu pliku. Klaster jest równy jednemu lub większej ilości sektorów. Choć klaster może mieć wielkość jednego sektora, najczęściej jednak jest większy. Posiadanie przez klastry większej ilości sektorów zmniejsza wielkość i czas przetwarzania FAT-u i umożliwia DOS-owi szybsze działanie dzięki znacznej redukcji ilości zarządzanych jednostek. Ceną tego udogodnienia jest utrata części miejsca na dysku. Ponieważ DOS może nadzorować przydzielanie miejsca tylko całymi klastrami, miejsce na dysku zajmowane przez każdy plik jest zaokrąglane do pełnego klastra.
Tabela 23.10 ukazuje standardowe wielkości klastrów (jednostek alokacji) używanych przez DOS przy różnych formatach dyskietek.
Tabela 23.10. Standardowe wielkości jednostek alokacji
Dziwnym może się zdawać, że dyski HD, posiadające o wiele więcej pojedynczych sektorów niż dyski DD, mają czasem mniejsze klastry. Zwiększa to FAT, DOS musi zarządzać większą ilością wpisów i w związku z tym wolniej działa. Powolność ta jest spowodowana nadmierną ilością obliczeń wymaganych do zarządzania wszystkimi pojedynczymi klastrami; im więcej ich jest, tym wolniej wszystko działa. Jest to cena płacona za umieszczenia na dysku klastra o minimalnej wielkości.
Mniejsze klastry zmniejszają utratę miejsca na dysku (wynikającą z różnicy pomiędzy aktualnym końcem każdego z plików, a końcem zajmowanej przez plik jednostki alokacji). Przy większych klastrach wzrasta ilość traconego miejsca. Ponieważ stacje dysków wysokiej gęstości (HD) są szybsze od ich odpowiedników DD (stacji o małej gęstości), IBM oraz Microsoft zadecydowali, że stacje HD będą miały obniżoną wielkość jednostek alokacji, dzięki czemu zmniejszą się straty miejsca za cenę pewnego zwolnienia pracy stacji oraz zwiększenia się tablic FAT na dyskietkach.
Wielkość jednostek alokacji dla twardych dysków zmienia się w zależności od wielkości twardego dysku i wersji DOS-u. W tabeli 23.11 ukazany jest rozmiar klastrów dla określonych pojemności DOS-owych dysków.
W większości przypadków powyższe wielkości klastrów, wybrane przez polecenie DOS-u FORMAT, są najniższymi możliwymi wielkościami dla partycji o danej wielkości. Zatem 8 kB to najmniejszy możliwy rozmiar jednostki alokacji dla partycji większej niż 256 MB. Większość wersji DOS-u stosuje się do wielkości podanych w powyższej tabeli., jednak niektóre wersje mogą używać klastrów o innych niż podane rozmiarach.
Używanie przez dysk większych jednostek może być bardzo widoczne. Dysk zawierający około 5000 plików, ze średnią utratą miejsca wynikającą ze struktury jednostek alokacji, traci około 20 MB (5000 x [0,5 * 8] kB) wolnego miejsca.
Warto odnotować, że Windows NT oraz OS/2 mają bardziej satysfakcjonujące systemy plików, nie posiadające struktury FAT i w związku z tym nie mające wynikających z niej ograniczeń. Dołączony do Windows 95 OSR2 system plików FAT32 pozwala na używanie jednostek alokacji większych niż 64 kB. Ponieważ
umożliwione zostało również posiadanie większej ilości klastrów, poszczególne klastry mogą być mniejsze. Rozwiązanie to łagodzi problem z ich rozmiarem na dużych dyskach oraz rozszerza maksymalny rozmiar partycji z 2 GB do 2 TB. Wielkości klastrów w systemie FAT32 również zależą od rozmiaru partycji i są następujące:
Windows NT umożliwia stosowanie 64 kB jako rozmiaru jednostek alokacji w przypadku tablic FAT16, zezwalając na tworzenie dysków o rozmiarze do 4 GB. Jednak ogrom miejsca traconego w przypadku stosowania takich dysków skutecznie zniechęca do stosowania tego rozwiązania.
Obszar danych Obszar danych jest umieszczony na każdym dysku zaraz za sektorem startowym, tablicami alokacji plików oraz głównym katalogiem. Obszar ten jest zarządzany przez FAT i główny katalog. DOS dzieli go na jednostki alokacji, czasami nazywane klastrami. Wszystkie zwykłe pliki są przechowywane na dyskach w klastrach.
Cylinder diagnostyczny operacji zapisu i odczytu Program partycjonujący FD1SK zawsze rezerwuje ostatni cylinder twardego dysku na cele specjalnych testów diagnostycznych operacji odczytu i zapisu. Ponieważ ten cylinder jest zarezerwowany, FD1SK zawsze podaje mniejszą ilość cylindrów na dysku, niż wynikałoby to ze specyfikacji dysku określonej przez producenta. DOS (i każdy inny system operacyjny) nie używa tego cylindra, ponieważ znajduje się on poza przeparty-cjonowanym obszarem dysku. Na komputerach z kontrolerami IDE, SCSI lub ESDI może się zdarzyć, że dysk lub kontroler przydzieli dodatkowy obszar za logicznym końcem dysku na tablicę uszkodzonych sektorów oraz sektory zapasowe. Ta sytuacja może powodować dodatkowe niezgodności pomiędzy danymi producenta, a programem FDISK.
Umieszczony na dysku obszar diagnostyczny umożliwia oprogramowaniu diagnostycznemu (na przykład dostarczonemu wraz z dyskiem przez producenta)
przeprowadzenie testów odczytu i zapisu twardego dysku bez jakiegokolwiek naruszania danych użytkownika. Programy niskopoziomowo formatujące dyski często używają tego sektora jako notatnika podczas przeprowadzania wstępnych testów oraz dla przechowywania danych podczas wykonywania niedestruktywnego formatowania twardego dysku. W dyskach nie posiadających mechanizmu automatycznego parkowania głowicy cylinder ten jest często używany jako cylinder, na którym umieszczana jest parkowana głowica.
FAT i długie nazwy plików Oryginalna wersja Windows 95 używała prawie dokładnie takiego samego systemu plików FAT co DOS, zawierającego jednak kilka istotnych ulepszeń. Tak jak większość pozostałych elementów Windows 95, obsługa systemu plików w systemie operacyjnym została przepisana przy użyciu 32-bitowego kodu i została nazwana VFAT (Yirtual F ile Allocation Tab/e). W celu zapewnienia lepszej wydajności systemu plików VFAT działa w połączeniu z 32-bitowym programem YCACHE (działającym w trybie chronionym), który zastąpił 16-bitowy program SMARTDrive działający w trybie rzeczywistym, używany dotąd w DOS i Windows 3.1. Jednak chyba najważniejszą cechą systemu plików VFAT jest obsługa długich nazw plików. DOS i Windows 3.1 przez wiele lat były „dziedzicznie" obciążone standardowym systemem nazw 8.3, więc obsługa długich nazw plików w Windows 95 miała dla Microsoftu ogromne znaczenie, zwłaszcza że długie nazwy już od dawna były dostępne w systemach OS/2 i Macintosh.
Najważniejszym zagadnieniem i jednocześnie największym problemem dla projektantów Windows 95, często zresztą pojawiającym się w różnych postaciach w przemyśle komputerowym, było zachowanie zgodności wstecz z istniejącymi aplikacjami. Nie jest czymś szczególnie trudnym zastosowanie długich nazw plików w momencie tworzenia całkiem nowego systemu operacyjnego, na przykład tak jak w przypadku tworzenia nowego systemu plików NTFS dla Windows NT. Projektanci Windows 95 musieli jednak dodać obsługę długich nazw plików do już istniejącego systemu FAT, przy zachowaniu możliwości przechowywania tych nazw na istniejących wolumenach DOS-u oraz przy zapewnieniu poprzednim wersjom DOS-u i Windows możliwości dostępu do plików.
VFAT zapewnia możliwość zastosowania nazwy pliku lub katalogu (folderu) o długości do 255 znaków (łącznie ze znakami ścieżki dostępu). Trzyznakowe rozszerzenie nazwy pliku zostało zachowane, ponieważ, tak jak w poprzednich wersjach Windows, Windows 95 wykorzystuje to rozszerzenie do powiązania typów plików z konkretnymi aplikacjami. Długie nazwy plików w systemie VFAT mogą zawierać spacje, a także inne znaki, które nie mogły występować w standardowych nazwach 8.3: +,;=[].
Najważniejszym problemem podczas opracowywania obsługi długich nazw plików było zagadnienie udostępnienia plików także poprzednim wersjom DOS-u i 16-
bitowym aplikacjom Windows, które znały jedynie nazwy plików zapisane w schemacie 8.3. Rozwiązaniem tego problemu okazało się zastosowanie dla każdego z plików dwóch nazw: długiej nazwy pliku oraz tzw. nazwy alias, używającej tradycyjnej konwencji 8.3. Gdy w Windows 9x tworzysz plik z długą nazwą, VFAT tworzy odpowiadający jej alias 8.3, postępując zgodnie z poniższą procedurą:
1. Pierwsze trzy znaki po ostatniej kropce w długiej nazwie pliku stają się rozszerzeniem nazwy alias. 2. Pierwsze sześć znaków długiej nazwy pliku (z wyłączeniem spacji, które są ignorowane) zostaje zamienione na wielkie litery i staje się pierwszymi sześcioma znakami nazwy alias. Jeśli któryś z tych sześciu znaków nie może wystąpić w standardowej nazwie 8.3 (tj. +,;=[ lub ]), VFAT konwertuje go na znak podkreślenia. 3. VFAT dodaje dwa znaki ~l jako siódmy i ósmy znak nazwy alias, chyba że powstaje konflikt z już istniejącą nazwą; w takim wypadku stosowana jest końcówka ~2, ~3 itd.
Możesz zmienić zachowanie mechanizmu VFAT obcinającego nazwy i dodającego przyrostek. Możesz sprawić, że nazwa alias będzie składała się z pierwszych ośmiu znaków długiej nazwy, a nie z sześciu znaków i przyrostka ~1. W tym celu dodaj nową wartość binarną do klucza Rejestru KEY_LOCAL_MACHINE\System\CurrentControlSet\ control\FileSy-stem. Wartość powinna mieć nazwę NameNumericTail i powinna mieć wartość 0. Zmiana wartości na l spowoduje przywrócenie standardowego mechanizmu obcinania długich nazw plików.
VFAT przechowuje nazwy alias w standardowych polach nazw pozycji tablicy plików. Dzięki temu dowolna wersja DOS-u lub 16-bitowego Windows może bez problemu odwołać się do pliku, używając nazwy alias. Pozostaje jednak ważne pytanie: gdzie umieścić długą nazwę pliku? Oczywiście nie można 255-znakowej nazwy zapisać w 32-bitowej pozycji kartoteki plików (ponieważ każdy znak zajmuje jeden bajt). Z drugiej strony, modyfikacja struktur)' pozycji kartoteki plików uniemożliwiłaby skorzystanie z niej poprzednim wersjom DOS-u. Projektanci VFAT rozwiązali ten problem, używając dodatkowych pozycji kartoteki plików do przechowania długich nazw plików. Każda z pozycji kartoteki w dalszym ciągu ma 32 bajty długości, dlatego do przechowania pojedynczej długiej nazwy może być wymaganych osiem takich pozycji. Aby zapewnić, że te dodatkowe pozycje kartoteki nie zostaną błędnie zinterpretowane przez starsze wersje DOS-u, VFAT nadaje im kombinację atrybutów, która jest niemożliwa w przypadku normalnego pliku: Tylko do odczytu, Ukryty, Systemowy oraz etykieta wolumenu. Takie ustawienie atrybutów powoduje, że DOS ignoruje pozycje kartoteki zawierające długie nazwy plików, zabezpieczając je równocześnie przed przypadkowym zapisaniem innymi danymi.
Używając długich nazw plików w standardowych partycjach FAT, dobrze jest unikać przechowywania ich w głównym katalogu dysku. Pliki z długimi nazwami, zajmujące wielokrotnie więcej pozycji kartoteki plików niż pliki z nazwą zgodną z konwencją 8.3, mogą łatwo doprowadzić do przekroczenia limitu pozycji kartoteki plików. W przypadku partycji FAT32 ten problem już nie występuje, gdyż na takich partycjach nie ma ograniczenia ilości pozycji głównej kartoteki dysku. To rozwiązanie, zapewniające w Windows 9x zarówno możliwość stosowania długich nazw plików, jak i zgodność ze starszymi systemami, choć można uważać za genialne, nie jest pozbawione pewnych wad. Większość tych problemów wynika z użycia aplikacji, które mogą korzystać jedynie z przypisanych do plików nazw alias 8.3. W pewnych przypadkach, jeśli w takim programie otworzysz plik posiadający długą nazwę, po czym zapiszesz go ponownie, następuje zerwanie połączenia z długą nazwą pliku, która zostaje utracona.
Jest to szczególnie istotne w przypadku starszych wersji narzędzi dyskowych, takich jak Norton Disk Doctor, które nie zostały stworzone do obsługi VFAT. Większość starszych aplikacji ignoruje dodatkowe pozycje kartoteki (z powodu kombinacji przypisanych im znaczników), ale narzędzia do naprawy dysku są szczególnie „wyczulone" na takie nieprawidłowości i z dziką radością zabierają się do „poprawiania" tego, co uznają za błędne. W związku z tym uruchomienie starszej wersji programu Norton Disk Doctor na partycji zawierającej długie nazwy plików powoduje w rezultacie utratę wszystkich długich nazw plików. W podobny sposób działają także starsze programy do tworzenia kopii zapasowych nie zaprojektowane do korzystania z VFAT; one także powodują utratę wszystkich długich nazw plików na dysku.
Jeśli posiadasz dysk z systemem plików VFAT, zdecydowanie zalecane jest korzystanie wyłącznie z narzędzi dyskowych i programów do tworzenia kopii zapasowych przeznaczonych do pracy z tym systemem. Windows 9x posiada narzędzia do naprawy, defragmentacji i tworzenia kopii zapasowych zgodne z systemem VFAT. Jeśli jednak z jakichś powodów jesteś zmuszony do użycia starszych programów, nie obsługujących VFAT, Windows 9x oferuje pewne rozwiązanie, które, choć niewygodne, spełnia swoją funkcję. Na instalacyjnej płytce Windows 9x znajduje się program LFNBK.EXE. Nie jest instalowany razem z systemem operacyjnym, ale możesz użyć go do wydzielenia z wolumenu VFAT długich nazw plików i zapisania ich w pliku tekstowym o nazwie LFNBK.DAT. Następnie możesz operować na plikach, tak jakby posiadały wyłącznie standardowe nazwy 8.3. Po zakończeniu operacji na wolumenie możesz ponownie użyć programu LFNBK.EXE w celu przywrócenia oryginalnych długich nazw plików (zakładając, że struktura plików i kartotek nie uległa zmianie). Takie rozwiązanie nie jest ani wygodne, ani zalecane i powinno być stosowane jedynie w wyjątkowych okolicznościach, kiedy nie masz innego wyboru.
Kolejny problem z długimi nazwami plików w systemie VFAT powstaje w wyniku sposobu tworzenia nazw alias 8.3. VFAT tworzy nowy alias za każdym razem, gdy
tworzysz lub kopiujesz plik do innej kartoteki, co sprawia, że alias może ulegać zmianom. Na przykład załóżmy, że posiadasz plik o nazwie Wydatki-Styczen98.doc zapisany w kartotece jako alias WYDATK~-1.DOC. Jeśli użyjesz Eksploratora Windows 9x do skopiowania tego pliku do foldera, który już zawiera plik o nazwie Wydatki-Grudzien97.doc, okaże się, że istniejący w folderze plik już posiada alias WYDATK~1.DOC. W takim przypadku VFAT przypisze kopiowanemu plikowi alias WYDATK~2.DOC, w żaden sposób Cię o tym nie ostrzegając. Nie jest to problemem dla aplikacji obsługujących VFAT, gdyż długa nazwa pliku pozostaje niezmieniona. Jeśli jednak użytkownik korzysta ze starszej aplikacji, może otworzyć plik WYDATK.~1.DOC, oczekując listy wydatków ze stycznia 1998 roku, lecz zamiast tego otwierając listę wydatków z grudnia 1997 roku.
FAT32 Gdy system plików FAT był opracowywany, nikomu nie śniło się jeszcze o dyskach o pojemności 2 GB, nikt też nie spodziewał się, że ograniczenie w rozmiarze partycji wynikłe z zastosowania 16-bitowej tablicy FAT oraz klastry o rozmiarze 32 kB będą jakimś problemem. Obecnie jednak nawet przeciętne komputery są wyposażone w dyski przekraczające 2 GB, zaś niczym szczególnym nie są dyski o pojemności 6 i 8 GB. Jeśli posiadając tak duży dysk, użyjesz standardowego systemu plików FAT, będziesz musiał utworzyć kilka partycji, z których każda będzie musiała mieścić się w obszarze około 2 GB. Dla wielu użytkowników konieczność posiadania kilku dysków może być dość kłopotliwa, sprawiając im trudność w organizowaniu i lokalizowaniu plików.
Aby wyjść naprzeciw temu zagadnieniu, Microsoft stworzył rozszerzoną wersję systemu plików FAT, noszącą nazwę FAT32. W odróżnieniu do VFAT, który jest wprowadzoną w Windows 9x innowacją wykorzystującą strukturę systemu plików, FAT32 jest ulepszeniem samego systemu FAT. Innymi słowy, o ile VFAT jest implementowany jako część Menedżera Maszyn Wirtualnych w Windows 9x (VMM.VXD), o tyle FAT32 jest implementowany przez program FDISK, uruchamiany jeszcze przed załadowaniem interfejsu graficznego Windows. FAT32 pierwszy raz pojawił się w Windows 95 OEM Service Release 2 (OSR2), stanowi także część Windows 98 i będzie obsługiwany w Windows NT 5.0.
Ponieważ FAT32 jest zakładany w programie FDISK stosowanym do partycjonowania dysku, nie możesz użyć go w przypadku dyskietki czy dysku wymiennego, które nie mają tablicy partycji. Możesz go jednak użyć w przypadku każdego dysku, który można podzielić przy pomocy programu FDISK, na przykład wymiennego dysku typu Jaz. Największą zaletą systemu FAT32 jest użycie 32-bitowych wartości dla pozycji tablicy FAT, zamiast standardowych pozycji 16-bitowych. Dzięki temu maksymalna ilość klastrów w pojedynczej partycji wzrasta z 65 536 (216) do 268 435 456. Ta wartość odpowiada liczbie 224 , a me 232, gdyż cztery z trzydziestu dwóch bitów są zarezerwowane do innych celów. FAT32 stosuje także 32-bitowe wartości dla
niskopoziomowych wywołań funkcji systemowych stosowanych w celu dostępu do specyficznych sektorów dysku.
Te poszerzone wartości przełamują ograniczenie rozmiaru partycji do 2 GB; partycje FAT32 teoretycznie mogą mieć rozmiar do 2 TB (l terabajt = l 024 gigabajtów). Ta liczba wynika z nowego maksimum, 4 294 967 296 (232) dostępnych 512-bajtowych sektorów. Poszczególne pliki mogą mieć długość do 4 GB, co wynika z ograniczenia w długości pola rozmiaru pliku w pozycji kartoteki plików, która ma cztery bajty długości. Ponieważ klastry są numerowane przy użyciu 32-bitowych wartości, zamiast wartości 16-bitowych, musiał nieco zostać zmieniony format pozycji kartoteki dysków FAT32. Dwubajtowe pole łącza do początkowego klastra zostało wydłużone do czterech bajtów, wykorzystano przy tym dwa z dziesięciu bajtów (bajty od 12 do 21), które w pozycji katalogu były zarezerwowane do wykorzystania w przyszłości.
Kolejna ważna różnica w partycjach FAT32 wystąpiła w naturze głównego katalogu. W partycjach FAT32 katalog główny nie zajmuje już ustalonej pozycji na dysku, tak jak działo się to w partycjach FAT16. Zamiast tego może znajdować się w dowolnym miejscu partycji i zajmować dowolną ilość miejsca. Eliminuje to ograniczenie ilości pozycji w katalogu głównym oraz zapewnia infrastrukturę potrzebną, aby partycje FAT32 mogły mieć dynamicznie zmieniany rozmiar. W Windows 9x Microsoft nie zaimplementowal jeszcze tej możliwości, istnieją jednak niezależne programy (takie jak Partition Magie firmy PowerQuest), które pozwalają z niej skorzystać.
Podstawową wadą systemu FAT32 jest jego brak zgodności z poprzednimi wersjami DOS-u oraz z Windows 95. Na dysku FAT32 nie możesz uruchomić systemu w poprzedniej wersji DOS-u lub Windows 95 wcześniejszych niż OSR2; także system uruchomiony z dysku startowego DOS lub Windows 95 nie zobaczy partycji FAT32. Jak dotąd, jedynym systemem, poza Windows 95 OSR2 i Windows 98, posiadającym wbudowaną obsługę FAT32 jest Linux.
Rozmiary klastrów w FAT32 Ponieważ partycje FAT32 mogą zawierać o wiele więcej klastrów niż partycje FAT16. klastry w partycjach FAT32 mogą być mniejsze. Użycie mniejszych klastrów redukuje ilość zmarnowanej powierzchni dysku. Na przykład ta sama, wspomniana wcześniej partycja 2 GB z pięcioma tysiącami plików w FAT32 używa klastrów po 4 kB, a nie 32 kB tak jak w przypadku FAT16. Zakładając tę samą ilość niewykorzystanego miejsca dla każdego z plików, mniejszy rozmiar jednostek alokacji na partycji FAT32 sprawia. że całkowita ilość niewykorzystanego miejsca na tym dysku maleje z ponad 78 MB do mniej niż 10 MB.
PC Magazine wydał darmowy program dla DOS-u, o nazwie CHKDRV, który oblicza ilość niewykorzystanego miejsca na dyskach FAT16 i FAT32. Możesz go ściągnąć z Internetu, spod adresu ftp://ftp.zdnet.com/pcmag/1995/0627/chkdrv.zip. Tabela 23.12 przedstawia rozmiary klastrów dla partycji FAT32 o różnych rozmiarach.
Tabela 23.12. Rozmiary klastrów FAT32
Oczywiście, użycie małych klastrów oznacza, że musi ich być o wiele więcej, musi być także o wiele więcej pozycji w tablicy FAT. Partycja 2 GB używająca FAT32 wymaga 524 288 pozycji w tablicy FAT, podczas gdy ten sam dysk z systemem FAT 16 wymaga tylko 65 536 pozycji w tablicy FAT. Tak więc rozmiar jednej kopii tablicy FAT16 wynosi 128 kB (65 536 pozycji x 15 bitów = l 048 576 bitów / 8 = 131 072 bajtów / l 024 = 128 kB), podczas gdy pojedyncza kopia tablicy FAT32 zajmuje 2 MB.
Rozmiar tablicy FAT ma duży wpływ na wydajność systemu plików. Windows 9x używa swojego programu YCACHE próbując cały czas zachować tablicę FAT w pamięci w celu przyspieszenia dostępu do plików. Ze wspomnianych względów użycie klastrów o rozmiarze 4 kB w dyskach o pojemności do 8 GB jest rozsądnym kompromisem przy założeniu, że komputer posiada przeciętną ilość pamięci. Gdyby w celu zminimalizowania niewykorzystanego miejsca system plików korzystał z klastrów o rozmiarze odpowiadającym pojedynczemu sektorowi dysku (l sektor = 512 bajtów), wtedy tablica FAT dla dysku o pojemności 2 GB zawierałaby 4 194 304 pozycje i zajmowałaby 16 megabajtów.
W przeciętnym systemie oznaczałoby to zajęcie większości dostępnej pamięci RAM, co w rezultacie doprowadziłoby do znacznego spadku wydajności całego systemu. Choć w pierwszym momencie może się wydawać, że 2 MB także zajmuje całkiem sporo pamięci, zwłaszcza w porównaniu ze 128 kB, należy jednak pamiętać, że obecne dyski twarde są o wiele szybsze niż dyski, które istniały w momencie, gdy powstawał system FAT 16. W praktyce zaimplementowanie systemu FAT32 w systemie Windows 9x zwykle nie powoduje znaczącej (tj. większej niż 5%) poprawy
wydajności systemu plików. W przypadku systemów, które dokonują bardzo wielu sekwencyjnych zapisów na dysk, można zaobserwować nawet nieznaczne obniżenie wydajności.
Mirroring tablicy FAT FAT32 czerpie duże korzyści z dwóch kopii tablicy FAT przechowywanych w partycji. W partycjach FAT16 pierwsza kopia tablicy FAT stanowi zawsze kopię podstawową, z której dane są kopiowane do zapasowej tablicy FAT i czasem podczas tego procesu ulegają uszkodzeniu. W przypadku partycji FAT32, gdy system wykryje problem z podstawową kopią tablicy FAT, może przełączyć się do kopii zapasowej, która automatycznie staje się kopią podstawową. System może także wyłączyć mechanizm mirroringu tablic FAT, zabezpieczając tablicę FAT przed uszkodzeniem przez inną kopię. To zapewnia większy stopień odporności na błędy w partycjach FAT32, często umożliwiając naprawienie zniszczonej tablicy FAT bez konieczności natychmiastowego zawieszenia pracy systemu czy utraty danych z tablicy.
Tworzenie partycji FAT32 Mimo podstawowych zmian wprowadzonych przez FAT32, nowy system plików nie korzysta ze szczególnie zmienionych procedur tworzenia i zarządzania partycjami. Nowe partycje FAT32 w Windows 9x są tworzone przy pomocy programu FDISK z linii poleceń, podobnie jak działo się to przy tworzeniu partycji FAT16. Gdy uruchamiasz FDISK, program sprawdza Twój twardy dysk i jeśli jego pojemność jest większa niż 512 MB, wyświetla następujący komunikat:
Ten komputer ma dysk większy niż 512 MB. Ta wersja systemu Windows obejmuje udoskonaloną obsługę dużych dysków, z czego wynika wydajniejsze wykorzystanie miejsca na dużych dyskach i co umożliwia formatowanie dysków o rozmiarach ponad 2 GB jako pojedynczych woluminów. WAŻNE: Jeśli włączysz obsługę dużych dysków i utworzysz nowe dyski na tym dysku, nie będzie możliwy dostęp do nowych dysków przy użyciu innych systemów operacyjnych, w tym niektórych wersji Windows 95 i Windows NT oraz wcześniejszych wersji systemu Windows i MS-DOS. Ponadto programy użytkowe, które nie były zaprojektowane dla systemu plików FAT32, nie będą mogły z nim współpracować. Jeśli chcesz mieć dostęp do tego dysku z innych systemów operacyjnych albo ze starszych programów obsługi dysków, nie włączaj obsługi dużych dysków.
Czy chcesz włączyć obsługę dużych dysków (T/N)...........? [T]
Jeśli odpowiesz twierdząco (wciśniesz klawisz T), wtedy wszystkie utworzone partycje o rozmiarze powyżej 512 MB będą partycjami FAT32. Jeśli chcesz stworzyć partycje większe niż 2 GB, to musisz użyć FAT32. W przeciwnym wypadku możesz wybrać system plików, który bardziej Ci odpowiada. Wszystkie następne ekrany i polecenia programu są takie same, jak w przypadku wcześniejszych wersji aplikacji FDISK.
Zwykle rozmiar klastra, jaki zostanie użyty przy formatowaniu dysku, jest wyznaczany przez program FDISK w oparciu o rozmiar partycji i użyty system plików. Możesz jednak wymusić inny rozmiar, niż wybrał FDISK, używając nieudokumentowanego parametru programu FORMAT. Jeśli użyjesz polecenia FORMAT /Z:n gdzie n pomnożone przez 512 odpowiada żądanemu rozmiarowi klastra (w bajtach), możesz utworzyć partycje, w której klastry są większe lub mniejsze od domyślnego rozmiaru klastrów dla danej partycji i systemu plików.
Parametr /Z nie znosi ograniczenia do 65 536 klastrów w partycji FAT16, zaleca się więc używanie go tylko w przypadku partycji FAT32. Oprócz tego nie powinieneś używać tego parametru w komputerze przeznaczonym do pracy, jeśli wcześniej nie przetestujesz dokładnie działania dysku po sformatowaniu. Modyfikacja rozmiaru klastra może zwiększyć lub zmniejszyć ilość niewykorzystanego miejsca, może mieć jednak także znaczny wpływ na wydajność całego dysku.
Konwersja FAT16 na FAT32 Windows 95 OSR2 może tworzyć partycje FAT32 tylko w wolnym obszarze dysku. Jeśli chcesz zamienić istniejącą partycje FAT16 na FAT32, musisz stworzyć kopię danych, usunąć partycje FAT16, stworzyć nową partycje FAT32, a następnie odtworzyć dane. W Windows 98 istnieje już specjalny kreator konwersji FAT32, który umożliwia bezpośrednią konwersję istniejących partycji FAT16.
Kreator zbiera informacje potrzebne do przeprowadzenia konwersji, informuje Cię o konsekwencjach przejścia do systemu FAT32 oraz zachęca do zabezpieczenia danych i usunięcia błędów na dysku. Gdy wybierzesz dysk, który chcesz przekonwertować, kreator sprawdza, czy na dysku występują aplikacje (takie jak narzędzia dyskowe), które mogą nie działać poprawnie na przekonwertowanej partycji, dając możliwość ich usunięcia. Przed przystąpieniem do konwersji kreator zachęca do stworzenia zapasowej kopii danych. Nawet jeśli nie używasz programu Kopia zapasowa oferowanego przez kreator, stworzenie takiej kopii leży w Twoim dobrze pojętym interesie.
Gdy odpowiesz na wszystkie pytania kreatora i potwierdzisz chęć dokonania konwersji, system zostanie ponownie uruchomiony w linii poleceń DOS-u. Sama konwersja odbywa się w systemie DOS, dzięki czemu mogą być konwertowane także dyski z zainstalowanym systemem Windows 98. Ponieważ oprócz stworzenia nowego sektora startowego, FAT-u i klastrów, konwersja ma do czynienia z istniejącymi danymi, cały proces może trwać o wiele dłużej, niż partycjonowanie i formatowanie pustego dysku. W zależności od ilości danych na dysku oraz nowego rozmiaru klastra, konwersja może trwać nawet kilka godzin.
Gdy dokonasz konwersji partycji FAT16 na FAT32, nie można przekonwertować jej z powrotem przy pomocy narzędzi dostarczanych z Windows 98, chyba że zdecydujesz się na usunięcie partycji i ponowne jej założenie przy pomocy programemu FDISK. Z tego powodu dobrze rozważ swój zamiar, zanim przystąpisz do konwersji. Dobrze jest także postępować zgodnie z zaleceniami kreatora przed przystąpieniem do konwersji, na przykład podłączyć system do UPS-a. Awaria zasilania podczas konwersji może łatwo doprowadzić do utraty danych na dysku.
FAT32 i Partition Magie Windows 95 OSR2 i Windows 98 posiadają jedynie podstawowe narzędzie do tworzenia partycji FAT32, istnieje jednak osobny program o nazwie Partition Magie, stworzony przez firmę PowerQuest, który posiada o wiele więcej możliwości manipulacji partycjami. Partition Magie potrafi dokonać bezpośredniej konwersji partycji FAT16 na FAT32, podobnie jak kreator konwersji FAT32 w Windows 98. W odróżnieniu jednak od Windows 98, potrafi także dokonać konwersji odwrotnej, tj. z FAT32 do FAT16. Między wieloma innymi rzeczami, program ten potrafi także zmieniać rozmiar partycji FAT16 i FAT32 bez utraty zapisanych na nich danych. Potrafi zwiększać lub zmniejszać rozmiary klastrów, a także może poinformować Cię, ile miejsca zaoszczędzisz dzięki zmianie tego rozmiaru. Partition Magie korzysta z wbudowanych możliwości systemów FAT16 i FAT32, które prawdopodobnie zostaną wykorzystane także w przyszłych wersjach systemu Windows.
Błędy systemu plików FAT Błędy systemu plików mogą oczywiście wynikać z błędnego działania sprzętu, najczęściej jednak powstają w wyniku załamań programów i niewłaściwej obsługi systemu. Wyłączenie komputera bez właściwego zamknięcia systemu Windows może doprowadzić do sytuacji, w której niektóre klastry są błędnie traktowane jako używane, mimo że nie należą do żadnego pliku. W następnych sekcjach zostaną omówione najczęściej występujące błędy, jakie mogą się pojawić w partycjach FAT.
Zagubione klastry Prawdopodobnie najczęstszy błąd w systemie plików, zagubione klastry, powstaje wtedy, gdy pewne klastry są w tablicy FAT zaznaczone jako używane, podczas gdy w rzeczywistości nie należą do żadnego z plików. Ten błąd najczęściej powodowany jest przez przerwanie procesu dostępu do systemu plików czy to z powodu załamania aplikacji, czy też zamknięcia systemu. Pozycja tablicy FAT, do której nie odwołuje się żaden plik z kartoteki, może wskazywać na następny klaster pliku, tworząc cały łańcuch zagubionych klastrów, które do nikogo nie należą.
Programy naprawy dysku wyszukują zagubione klastry, przetwarzając łańcuchy w tablicy FAT dla każdego pliku i podkatalogu w partycji, budując w pamięci obraz tablicy FAT. Po skompilowaniu listy wszystkich pozycji tablicy FAT wskazujących poprawnie zaalokowane klastry program porównuje obraz tablicy z rzeczywistą tablicą. Wszelkie pozycje prawdziwej tablicy FAT wskazujące na zaalokowane klastry i nie występujące w obrazie tablicy zbudowanym przez program są traktowane jako zagubione klastry, gdyż nie należą do żadnego poprawnego łańcucha klastrów.
Program naprawy dysku przed wyczyszczeniem tablicy FAT zwykle daje możliwość zapisania do plików danych występujących w zagubionych klastrach. Jeśli załamanie systemu lub awaria zasilania nastąpiła na przykład podczas pracy z edytorem tekstu, dzięki temu możesz być w stanie odzyskać z zagubionych klastrów swój tekst. Jeśli nie zostaną naprawione, zagubione klastry pozostają niedostępne dla systemu operacyjnego, redukując ilość wolnego miejsca na dysku.
Skrzyżowane pliki Skrzyżowane pliki występują wtedy, gdy dwie pozycje kartoteki niewłaściwie odwołują się do tego samego klastra początkowego. W rezultacie każdy z plików wykorzystuje ten sam łańcuch klastrów w tablicy FAT. Ponieważ klastry mogą przechowywać dane tylko jednego pliku, praca z jednym z plików może doprowadzić do zniszczenia danych należących do drugiego pliku.
Dla programu naprawczego wykrycie skrzyżowanych plików jest stosunkowo prostym zadaniem, ponieważ musi sprawdzić jedynie pozycje kattoteki plików, a nie same klastry plików. Jednak gdy program wykryje taki błąd. dane z jednego lub obu
plików prawdopodobnie już uległy uszkodzeniu, choć być może będziesz w stanie odzyskać część plików z zagubionych klastrów.
Niewłaściwe pliki lub kartoteki Czasem informacja w pozycji kartoteki dla pliku lub podkatalogu może zostać uszkodzona jedynie na tyle, że pozycja kartoteki nie jest błędna, lecz niewłaściwa. Pozycja może zawierać odwołanie do klastra czy też datę, która jest niedozwolona lub w jakiś inny sposób narusza założony format struktury pozycji. W większości przypadków oprogramowanie naprawcze radzi sobie z takimi błędami, przywracając dostęp do pliku.
Błędy tablicy FAT Jak wspomniano już wcześniej, uszkodzenia tablicy FAT mogą czasem zostać naprawione na podstawie poprawnej kopii tej tablicy. Programy naprawy dysków zwykle korzystają z tej techniki, odtwarzając zniszczoną tablicę FAT, jeśli tylko kopia nie została uszkodzona w wyniku procesu mirroringu. W przypadku tablic FAT32 prawdopodobieństwo odtworzenia jest jeszcze większe, ponieważ bardziej dopracowane techniki mirroringu zmniejszają ryzyko uszkodzenia zapasowej tablicy.
DOS-owe programy odzyskujące dane i dyski CHKDSK, RECOYER oraz SCANDISK stanowią rodzinę DOS-owych programów odzyskujących dane z uszkodzonych dysków. Polecenia te są prymitywne, a podejmowane przez nie akcje drastyczne, ale czasem są wszystkim, czego potrzeba do odzyskania danych. RECOYER służy do odzyskiwania danych, CHKDSK najczęściej używany jest do sprawdzania struktury plików. Wielu użytkowników nie zdaje sobie sprawy, że CHKDSK jest w stanie naprawiać uszkodzone struktury plików. DEBUG, prymitywny, ręcznie obsługiwany program, może pomóc w przypadku uszkodzenia dysku, jeśli tylko będziesz w stanie go obsłużyć.
ScanDisk jest bezpieczniejszy, bardziej zautomatyzowany, a zarazem ma większe możliwości niż CHKDSK i RECOYER razem wzięte. Powinieneś go używać zamiast tych dwóch programów, jeśli tylko posiadasz DOS 6 lub nowszy.
Polecenie CHKDSK Użyteczne i dysponujące potężnymi możliwościami polecenie DOS-u CHKDSK bywa często niedoceniane. Dla przypadkowego użytkownika podstawową funkcją CHKDSK zdaje się być wyświetlanie informacji o alokacji miejsca na dysku oraz wolnej pamięci. CHKDSK wykonuje wszystkie te czynności, ale jego podstawową funkcją jest odnajdowanie, definiowanie oraz naprawianie problemów z DOS-owymi
katalogami i systemem FAT na dyskach. CHKDSK jest użytecznym narzędziem przy rozwiązywaniu problemów z odzyskiwaniem danych, pomimo iż jest prymitywny i uproszczony w porównaniu z niektórymi spośród realizujących podobne funkcje programów niezależnych producentów. Dane wyjściowe generowane przez program CHKDSK po uruchomieniu na typowym (no, może nie typowym, ale moim własnym) twardym dysku są następujące:
Mało znaną funkcją CHKDSK jest jego zdolność do generowania raportu o fragmentacji określonego pliku (lub grup plików). CHKDSK może również wypisywać listę wszystkich znajdujących się na dysku plików (łącznie z plikami systemowymi i ukrytymi), działając jak ulepszone polecenie DIR. Jednak zdecydowanie najważniejszą cechą tego programu jest jego zdolność do detekcji i poprawiania problemów z DOS-owym systemem plików.
Nazwa CHKDSK jest myląca, wydaje się bowiem być skrótem od CHECK DISK. Tymczasem program nie sprawdza integralności dysku, ani też plików na nim zawartych. CHKDSK nie potrafi również przetestować twardego dysku na obecność błędów, wyszukać, wskazać ani zaznaczyć uszkodzonych sektorów. Prawdziwą funkcją CHKDSK jest sprawdzenie poprawności struktury FAT-u oraz katalogów. CHKDSK nie wykrywa (i nie informuje) o błędach w pliku, sprawdza on jedynie FAT i obszary katalogów (czyli tablicę zawartości) twardego dysku.
CHKDSK potrafi również testować ciągłość plików. Pliki zajmujące ciągły obszar ścieżek i sektorów dyskietek lub dysku twardego są w naturalny sposób bardziej efektywne. Dostęp do pliku porozrzucanego w różnych obszarach twardego dysku znacznie się wydłuża. DOS zawsze zna pozycje wszystkich części pliku dzięki liczbom zawartym we wskaźnikach FAT-u. Wskaźniki te zawierają dane
umożliwiające DOS-owi przejście do następnego fragmentu pliku. Czasami, z różnych powodów, wskaźniki te mogą zostać zagubione lub może dojść do ich uszkodzenia. DOS nie potrafi wówczas odnaleźć fragmentu pliku. CHKDSK może ostrzec Cię o tym stanie, a także umożliwić odzyskanie niewykorzystywanej przestrzeni dysku.
Składnia poleceń programu CHKDSK Składnia poleceń programu CHKDSK jest następująca:
CHKDSK [d:\path\] [filename] [/F] [/V]
Parametr d: określa, który z dysków ma zostać poddany analizie. Opcje path i filename określają pliki, których fragmentacja zostanie przetestowana w dodatku do analizy dysku. Dozwolone jest użycie w nazwie pliku znaków specjalnych, umożliwiających przetestowanie ciągłości grup plików w określonym katalogu. Jedyną wadą testu jest brak możliwości sprawdzenia ciągłości plików w wielu różnych katalogach, niestety umożliwia on wybranie tylko jednego katalogu.
Parametr /F (Fix) umożliwia poprawianie znalezionych przez CHKDSK problemów w strukturze katalogów i FAT-u. Jeśli CHKDSK zostanie uruchomiony bez parametru /F, program nie będzie mógł zapisywać na dysku i nie zostaną naniesione żadne poprawki.
Parametr /V (Yerbose) powoduje wyszczególnienie przez program wszystkich wpisów we wszystkich katalogach dysku oraz udzielanie szczegółowych informacji w razie natrafienia na błędy.
Parametry określające dysk, ścieżkę oraz pliki są opcjonalne. Jeśli nie zostanie sprecyzowany żaden z nich, CHKDSK użyje standardowego napędu lub dysku i nie dokona sprawdzenia ciągłości plików. Jeśli określisz parametry [path] (ścieżka) i [filename] (nazwa pliku), CHKDSK sprawdzi, czy określone pliki są zapisane na dysku w sposób ciągły. Jako rezultat testu na ekranie pojawi się jeden z dwóch komunikatów:
Ali specified file(s) arę contiguous lub [filename] Constains xxx non-contiguous blocks
Drugi komunikat pojawia się za każdym wykryciem sfragmentowanego pliku, wyświetlana jest także informacja o ilości fragmentów tworzących plik. Plikiem sfragmentowanym jest plik, który nie znajduje się w jednym, ciągłym obszarze, lecz jest podzielony na fragmenty porozrzucane na obszarze całego dysku. Sfragmentowane pliki wczytują się wolniej niż ciągłe, co obniża wydajność dysku. Gdy struktura katalogów lub FAT-u zostanie uszkodzona, sfragmentowane pliki są znacznie trudniejsze do odzyskania.
Jeśli posiadasz jedynie DOS, masz wiele możliwości przeprowadzenia pełnej defragmentacji. By zdefragmentować pliki na dyskietce, możesz sformatować nowy dysk. a następnie poleceniem COPY lub XCOPY przekopiować pliki na nową dyskietkę. Przy twardym dysku musisz wykonać kopię zapasową twardego dysku, następnie go sformatować, a na koniec przegrać na nowo sformatowany dysk pliki z kopii zapasowej. Ponieważ procedura ta jest bardzo pracochłonna i niebezpieczna, zostało stworzonych wiele programów defragmentujących.
Ograniczenia CHKDSK CHKDSK w wielu przypadkach nie działa lub działa tylko w ograniczonym zakresie. CHKDSK nie działa na napędach lub częściach napędów stworzonych jednym z poniższych sposobów:
• napędy polecenia SUBST; • napędy polecenia ASSIGN; • napędy polecenia JOIN; • napędy sieciowe.
SUBST Polecenie SUBST tworzy wirtualny napęd, który tak naprawdę jest podkatalogiem napędu istniejącego już wcześniej, lecz posiada różniącą się od niego literę. By analizować pliki zawarte w podkatalogu stworzonym przez SUBST, musisz nadać TRUENAME (prawdziwą nazwę) lub inaczej aktualną ścieżkę do plików. TRUENAME jest nieudokumentowanym poleceniem DOS-u 4.0 i późniejszych, służy do pokazywania aktualnej ścieżki nazwy dysku stworzonego przez polecenie SUBST.
By uzyskać prawdziwą nazwę przykładowego napędu, możesz użyć również polecenia SUBST. Wyobraź sobie, że stworzyłeś w następujący sposób wirtualny napęd E:, będący katalogiem C:\AUTO\SPECS:
C:\>SUBST E: C:\AUTO\SPECS
Jeśli spróbujesz przetestować poleceniem CHKDSK pliki znajdujące się na dysku E:, otrzymasz następujący komunikat błędu:
E:\>CHKDSK +.+
Cannot CHKDSK a SUBSTed or ASSIGNed drive
By przetestować pliki znajdujące się na wirtualnym napędzie E: poleceniem CHKDSK. musisz odnaleźć aktualnie reprezentowaną przez ten napęd ścieżkę. Możesz tego dokonać używając polecenia SUBST (bez żadnych dodatkowych parametrów): E:\>SUBST E: => C:\AUTO\SPECS Aktualną ścieżkę możesz również odnaleźć, wykorzystując nieudokumentowane polecenie TRUENAME (tylko w DOS-ie 4.0 i późniejszych): E:\>TRUENAME E: C:\AUTO\SPECS Po odnalezieniu ścieżki dostępu do plików możesz już wydać odpowiednie polecenie CHKDSK, które sprawdzi dysk oraz pliki: E:\>CHKDSK C:\AUTO\SPECS\+ . * Dane wyjściowe następujące:
polecenia
CHKDSK,
zawierające
właściwości dysku,
są
Problemy z ASSIGN CHKDSK nie przeprowadzi również testów dysku, który został zmieniony poleceniem ASSIGN. Na przykład jeśli użyjesz polecenia ASSIGN A=B, nie będziesz mógł analizować stacji A:, zanim nie odwrócisz operacji przypisania. Robi się to również za pomocą polecenia ASSIGN, w następujący sposób:
ASSIGN A=A.
Problemy z JOIN CHKDSK nie przetworzy sekcji drzewa katalogów stworzonej poprzez polecenie JOIN (które przyłącza dysk fizyczny do innego dysku jako jego podkatalog), ale nie dlatego, że przetwarzałby aktualnie przyłączony dysk fizyczny, lecz dlatego, że tak przyłączony dysk nie jest dla DOS-u prawidłowo określony. Na dyskach, na których użyłeś polecenia JOIN, CHKDSK przetworzy aktualną część napędu, a następnie wyświetli ostrzeżenie o błędzie:
Directory is joined tree past this point not processed
Komunikat ten ma na celu poinformowanie, że polecenie nie było w stanie przetworzyć katalogu stworzonego poprzez JOIN. Po wyświetleniu komunikatu ostrzeżenia CHKDSK kontynuuje przetwarzanie dalszej części dysku, a na koniec wyświetla wymagane informacje o napędzie.
Problemy z siecią CHKDSK nie potrafi przetworzyć dysków sieciowych (udostępnionych), także od strony serwera i stacji roboczej. Mówiąc innymi słowy, nie możesz użyć programu CHKDSK na żadnym z napędów serwera plików, do których mają zdalny dostęp stacje sieciowe. Na każdej stacji sieciowej polecenie CHKDSK możesz uruchomić wyłącznie na napędach fizycznie do niej przyłączonych - nie ma tej możliwości dla napędów dostępnych poprzez oprogramowanie sieciowe. Jeśli spróbujesz uruchomić CHKDSK na serwerze lub na napędzie stacji roboczej udostępnionym dla sieci, zobaczysz następujący komunikat błędu:
Cannot CHKDSK a network drive
Jeśli chcesz uruchomić CHKDSK na takim dysku, musisz przejść do komputera, na którym dysk ten jest fizycznie zamontowany, wyłączyć lub zawiesić udostępnianie dysku dla sieci i dopiero wówczas uruchomić program CHKDSK.
Dane wyjściowe polecenia CHKDSK CHKDSK standardowo pokazuje następujące informacje o przebadanym dysku: •
nazwę dysku wraz z datą jego utworzenia:
•
numer seryjny dysku;
•
całkowitą pojemność dysku (w bajtach);
•
ilość ukrytych plików oraz zawartych w nich bajtów danych;
•
ilość plików oraz bajtów danych w katalogach;
•
ilość plików użytkownika oraz zawartych w nich bajtów danych;
•
ilość bajtów w uszkodzonych sektorach (nieprzydzielonych klastrom);
•
ilość bajtów dostępnych na dysku;
•
ilość bajtów całej pamięci (RAM);
•
ilość bajtów wolnej pamięci;
•
komunikaty błędów, jeśli zostały napotkane błędy na dysku.
Dzięki użyciu parametrów opcjonalnych CHKDSK może pokazywać także: •
nazwy i liczbę fragmentów nieciągłych plików;
•
nazwy wszystkich katalogów i plików na dysku.
Jeśli badany dysk nie posiada nazwy lub numeru seryjnego, informacje te nie zostaną wyświetlone. Jeśli na dysku nie ma klastrów zaznaczonych w tablicy FAT jako uszkodzone, CHKDSK nie wyświetli informacji o bajtach w uszkodzonych sektorach.
Wyobraź sobie na przykład, że dysk został sformatowany pod DOS-em 6.2 następującym poleceniem:
C:\>FORMAT A: /F:720 /U /S /V:floppy_disk
Informacje wyjściowe polecenia FORMAT będą wyglądać następująco:
Informacja statusu polecenia FORMAT jest bardzo podobna do danych wyjściowych polecenia CHKDSK. Dane wyjściowe polecenia CHKDSK po uruchomieniu na tym samym dysku będą wyglądały następująco:
W powyższym przypadku polecenie CHKDSK pokazuje numer seryjny i nazwę dysku, ponieważ polecenie FORMAT dzięki zastosowaniu parametru /V: nadało dyskowi nazwę. Numer seryjny w wersjach DOS-u 4.0 i późniejszych zapisywany jest już automatycznie. Warto zauważyć, że na dysku znajdują się już trzy pliki, w tym dwa z atrybutem ukryte. Wcześniejsze niż 5.0 wersje DOS-u wykrywają nazwę dysku FLOPPY_DISK jako trzeci plik ukryty. Aby ujrzeć ukryte pliki, musisz uruchomić polecenie CHKDSK z parametrem /V, tak jak poniżej:
CHKDSK z parametrem /V wypisuje nazwy wszystkich katalogów i plików na całym dysku (w tym przypadku są to tylko trzy pliki). CHKDSK nie sprawdza, czy pliki są ukryte, po prostu wypisuje je wszystkie. Pliki systemowe DOS-u są pierwszymi dwoma plikami na dysku startowym i zazwyczaj posiadają atrybuty Ukryty, Systemowy oraz Tylko do odczytu. Podczas przykładowego formatowania dyskietki program FORMAT nie odnalazł na niej żadnych nieodczytywalnych sektorów. W związku z tym żaden z sektorów nie został zaznaczony w strukturze FAT jako uszkodzony i CHKDSK nie wyświetlił komunikatu: xxxxxxxxx Bytes in bad sectors
Nawet jeśli po sformatowaniu dysk został uszkodzony, CHKDSK nie wypisze informacji o ilości bajtów w uszkodzonych sektorach, ponieważ nie przeprowadza on testów nośnika i w związku z tym nie przeprowadza takich obliczeń. CHKDSK odczytuje FAT, a następnie informuje, co FAT mówi o uszkodzonych sektorach na dysku. CHKDSK tak naprawdę nie liczy sektorów, lecz klastry, ponieważ FAT operuje właśnie tymi jednostkami.
Pomimo iż bajty w uszkodzonych sektorach brzmią jak problem lub komunikat o błędzie, wcale nim być nie muszą. Informacja ta oznacza tylko to, że określona ilość jednostek alokacji została zaznaczona jako uszkodzona i w związku z tym DOS nie będzie zaznaczonych w ten sposób klastrów używał. Ponieważ niemalże wszystkie dyski są produkowane i sprzedawane z uszkodzonymi obszarami, komunikat ten nie jest nieznany. Prawdę mówiąc, dostępne na rynku dyski wyższej jakości mają
tendencje do posiadania większej ilości uszkodzonych obszarów niż dyski o jakości niższej. Można tak wnioskować, patrząc na dostarczaną przez producentów wraz z dyskiem listę uszkodzeń (zawierającą wszystkie znane uszkodzone miejsca). Wiele z najnowszych kontrolerów twardych dysków pozwala na oszczędzanie ścieżek i sektorów poprzez mapowanie uszkodzeń poza obszarem odczytywalnym przez DOS. dzięki czemu DOS nigdy nie będzie w stanie ich uchwycić. Procedura ta stała się już niemalże standardem przy dyskach posiadających wewnętrzny kontroler, jak na przykład dyski IDE (Integrated Drive Electronics] lub SCSI (Smali Computer Systems Interface).
Wyobraź sobie, że posiadasz program użytkowy, którym zaznaczyłeś w tablicy FAT jako uszkodzone dwie jednostki alokacji (na przykład 150. i 151.) uprzednio sformatowanej dyskietki 720 kB. CHKDSK wypisze następujące informacje o dyskietce:
CHKDSK informuje o 2048 bajtach w uszkodzonych sektorach, co dokładnie odpowiada dwóm zaznaczonym przed chwilą klastrom. Klastry te są oczywiście zupełnie dobre - Ty tylko zaznaczyłeś je jako uszkodzone w strukturze FAT-u. Używając edytora dysków, na przykład programu użytkowego Disk Editor z Norton Utilities, możesz zmieniać FAT prawie na każdy sposób.
Operacje CHKDSK Pomimo iż bajty w uszkodzonych sektorach nie zawierały błędów, CHKDSK informował jednym z wielu opisowych komunikatów o błędach w strukturze katalogów lub FAT-u. Komunikaty te zmieniają się w zależności od wykrytych przez CHKDSK błędów. Czasami mogą być niezrozumiałe lub mylące. CHKDSK nie informuje, w jaki sposób zaistniały problem powinien zostać uchwycony, nie informuje również, czy jest w stanie naprawić problem, czy też powinieneś użyć do tego innego narzędzia. Nie są również podawane informacje o możliwych konsekwencjach próby naprawienia błędu. CHKDSK nie informuje również, co było
przyczyną powstania problemu i jak unikać powstawania podobnych problemów w przyszłości.
Podstawową funkcją CHKDSK jest porównywanie, w których miejscach struktura FAT-u zgadza się ze strukturą katalogów, a w których się od niej różni - czy wszystkie dane o plikach zawarte w katalogach (jak na przykład początkowy klaster i rozmiar pliku) zgadzają się z danymi z FAT-u (na przykład z łańcuchem klastrów aż do znacznika końca łańcucha). CHKDSK sprawdza również wpisy plików podkatalogów oraz specjalne wpisy kropka (.) \ podwójna kropka (..) łączące ze sobą system podkatalogów.
Drugą funkcją CHKDSK jest wprowadzanie poprawek do struktury dysku. Poprawki wprowadzane przez CHKDSK mają na celu uzgodnienie obrazu dysku umieszczonego w tablicach FAT i katalogach. Z punktu widzenia naprawy zrozumienie czynności CHKDSK jest relatywnie łatwe. CHKDSK niemal zawsze modyfikuje strukturę katalogów, tak by odpowiadała danym zawartym w tablicach FAT. Istnieje bardzo niewiele przypadków, w których CHKDSK dokonuje zmian w tablicach FAT. Jeśli już jednak to zrobi, dokonane przez niego modyfikacje FAT-u zawsze ograniczają się do prostych zmian tego samego typu.
Myśl o umiejętnościach naprawiania, posiadanych przez polecenie CHKDSK, jako o poprawkach struktury katalogów. Ponieważ CHKDSK nie potrafi efektywnie naprawić większości typów uszkodzeń FAT-u, zamiast naprawiać je. modyfikuje po prostu strukturę katalogów, by odzwierciedlała wszystkie problemy znalezione w tablicach FAT.
CHKDSK nie jest zbyt dobrym programem naprawiającym i często podczas naprawiania dysku powoduje większe uszkodzenia, niż gdyby zostawić dysk samemu sobie. Często zdarza się, że zawarte w katalogach informacje są poprawne i mogą być użyte (przez jakiś program użytkowy) do naprawienia tablic FAT-u. Jeśli uruchomisz CHKDSK z parametrem /F, znajdujące się w katalogach informacje zostaną zastąpione, co uniemożliwi dokonanie prawidłowej naprawy FAT-u. Nigdy nie powinieneś uruchamiać programu CHKDSK z parametrem /F, zanim nie określisz, czy i jakie uszkodzenia zaistniały na dysku, uruchamiając go w trybie tylko do odczytu (bez parametru /F).
CHKDSK z parametrem /F powinieneś uruchamiać dopiero po ostrożnym sprawdzeniu twardego dysku i określeniu, w jaki sposób CHKDSK będzie usiłował naprawić błędy. Jeśli przy uruchamianiu programu nie wprowadzisz parametru /F, CHKDSK nie będzie mógł zapisywać zmian na dysku. Dokonywane przez niego próby naprawy często są Rozbudowa i naprawa komputerów PC całkowicie chybione. Dzięki temu ograniczeniu jesteś bezpieczny, ponieważ CHKDSK nie może niczego zrobić, nim Ty nie zorientujesz się, na czym polega problem i czy CHKDSK
jest w stanie sobie z nim poradzić. Po stwierdzeniu, że CHKDSK poczynił prawidłowe przypuszczenia co do rodzaju uszkodzenia, możesz zechcieć uruchomić go z przełącznikiem /F.
Niektórzy umieszczają w swym pliku AUTOEXEC.BAT polecenie CHKDSK /F jest to bardzo niebezpieczny zwyczaj. Jeśli zostanie uszkodzony FAT i struktura katalogów dysku systemowego, próba wgrania programu, którego wpisy w katalogu i tablicach FAT zostały uszkodzone, może zawiesić komputer. Jeśli po zresetowaniu komputera wywołany przez AUTOEXEC.BAT program CHKDSK spróbuje naprawić problem, może dojść do nieodwracalnego uszkodzenia struktury plików na dysku. W wielu przypadkach CHKDSK powoduje w sumie większe uszkodzenia od istniejących przed jego uruchomieniem, a co gorsza, nie istnieje żaden prosty sposób, by odwrócić naniesione przez niego zmiany. Ponieważ CHKDSK jest bardzo prostym programem użytkowym, często usiłującym naprawić błędy w nieodpowiedni sposób, powinieneś bardzo uważać, jeśli zdecydujesz się na uruchomienie go z parametrem /F.
Rozpoznawane przez CHKDSK problemy są najczęściej problemami z oprogramowaniem, nie ze sprzętem. Pomimo iż jest to możliwe, bardzo rzadko zachodzi sytuacja, w której utracone klastry, błędy alokacji lub skrzyżowane pliki są błędami powodowanymi bezpośrednio przez sprzęt. Najczęstszą przyczyną zaistnienia tych błędów są źle napisane lub uszkodzone programy, które zostały zatrzymane, nim zdążyły zamknąć pliki lub opróżnić bufory. Uszkodzenie sprzętu może spowodować zatrzymanie się programu, ale wielu ludzi myśli, że błędy te zawsze sygnalizują uszkodzenie układów dysku, co niemal nigdy nie odpowiada prawdzie.
Jeśli posiadasz twardy dysk, powinieneś uruchamiać CHKDSK co najmniej raz dziennie, ponieważ ważne jest jak najszybsze wykrycie wszystkich błędów struktury plików. W związku z tym umieszczenie programu CHKDSK w pliku ALJTOEXEC.BAT jest dobrym pomysłem, ale tylko jeżeli nie stosujesz parametru /F. Na przykład, gdy używany przez Ciebie program niespodziewanie zakończy pracę lub z jakiegoś powodu zawiesi się system, zawsze uruchamiaj program CHKDSK, by sprawdzić, czy nie doszło do uszkodzenia struktury plików.
Błędy CHKDSK potrafi tylko odczytać informacje zawarte w FAT i stwierdzić, czy są one poprawne oraz porównać je z innymi. W związku z tym CHKDSK potrafi rozpoznać tylko niektóre rodzaje problemów. Gdy CHKDSK odkryje rozbieżności pomiędzy strukturami katalogów a FAT-em, prawie zawsze klasyfikuje je jako błędy jednej z poniższych kategorii (błędy te są najczęściej wykazywanymi przez CHKDSK):
•
utracone jednostki alokacji;
•
błędy alokacji;
•
skrzyżowane pliki;
•
nieprawidłowe jednostki alokacji.
Polecenie RECOVER Polecenie DOS-u RECOYER jest przeznaczone do zaznaczania klastrów w tablicach FAT jako uszkodzone, gdy klastry te nie mogą zostać prawidłowo odczytane. Jeśli plik nie może zostać odczytany, ponieważ na dysku został uszkodzony sektor, polecenie RECOYER może go zaznaczyć w tablicach FAT jako uszkodzony, dzięki czemu nie będzie on używany przez żaden inny plik na dysku. Program ten może być bardzo niebezpieczny, jeśli zostanie niepoprawnie użyty.
Wielu użytkownikom wydaje się, że polecenie RECOYER służy do odzyskiwania danych w uszkodzonych plikach. Tak naprawdę, po wykonaniu polecenia RECOYER odzyskiwana jest jedynie część pliku poprzedzająca miejsce uszkodzenia. RECOYER oznacza w tablicach FAT nieodczytywalne miejsce jako uszkodzone, a następnie zaznacza wszystkie klastry zajmowane uprzednio przez część pliku za uszkodzonym miejscem jako dostępne, co niszczy nienaruszone części pliku. Zawsze twórz kopie plików, zanim użyjesz polecenia RECOYER, ponieważ polecenie COPY potrafi odczytać całość danych, łącznie z danymi położonymi poza uszkodzeniem.
Wyobraź sobie, że używasz edytora tekstu. Uruchomiłeś program i kazałeś mu wgrać plik DOKUMENT.TXT. Sektor twardego dysku wykorzystywany przez część tego pliku został uszkodzony. W związku z tym pośrodku wgrywania dokumentu ujrzałeś na ekranie komunikat:
Sector not found error reading drive C Abort, Retry, Ignore, Fail?
Możesz dokonać ponownej próby odczytu pliku, więc próbuj wiele razy. Jeśli podczas któregoś z powtórzeń uda Ci się odczytać plik, zapisz wgraną wersję jako plik o innej nazwie, dzięki czemu dane pliku znajdą się w innych sektorach dysku. Nadal musisz naprawić strukturę dysku, by komputer nie przechowywał w uszkodzonym sektorze jakichkolwiek danych.
Jeśli po wielu powtórkach nadal nie jesteś w stanie odczytać pliku, odzyskanie danych będzie o wiele trudniejsze. Operacja ta ma następujące dwie fazy:
•
zachowanie jak największej możliwej ilości danych z pliku;
•
zaznaczenie FAT-u w celu uniemożliwienia ponownego wykorzystania uszkodzonych sektorów lub klastrów na dysku.
Zachowywanie danych By odzyskać dane z pliku, skopiuj go pod inną nazwą, używając DOS-owego polecenia COPY. Na przykład jeśli uszkodzony plik ma nazwę DOKUMENT.TXT, a ty chcesz by kopia nazywała się DOKUMENT.NEW, wpisz polecenie: COPY dokument.txt dokument. New Pośrodku kopiowania znów ujrzysz komunikat „Sector not found". Kluczem powodzenia operacji jest wybranie opcji I (Ignoruj). Uszkodzone sektory zostaną dzięki temu zignorowane i operacja kopiowania będzie kontynuowana aż do osiągnięcia końca pliku. Uzyskana kopia zawiera nienaruszone dane pliku źródłowego, nie licząc danych umieszczonych w uszkodzonym sektorze. Dane pochodzące z uszkodzonego sektora w nowo powstałym pliku wyglądają jak śmieci lub bełkot, ale nowa kopia jest odczy-tywalna. Wgraj nową kopię do edytora tekstu i ręcznie usuń lub popraw dane pochodzące z uszkodzonego miejsca.
Jeśli uszkodzony plik był plikiem binarnym (na przykład częścią programu), możesz uznać, że został całkowicie utracony, ponieważ nie ma możliwości poprawienia bajtów tworzących strukturę programu. Jedyną nadzieją jest wówczas zastąpienie pliku jego odpowiednikiem z kopii bezpieczeństwa. Krok ten wypełnia fazę pierwszą, w której odzyskujesz tak wiele danych, jak to tylko możliwe. Teraz powinieneś przejść do fazy drugiej, zaznaczając uszkodzone sektory dysku, dzięki czemu nie będziesz ich wykorzystywał w przyszłości.
Zaznaczanie uszkodzonych sektorów Uszkodzone sektory na dysku zaznaczasz za pomocą polecenia RECOYER. W celu zaznaczenia uszkodzonych sektorów po próbach odzyskania danych wykonujesz je w następujący sposób:
RECOVER dokument.txt
W tym przypadku dane wyjściowe polecenia RECOYER wyglądają następująco:
Press any key to begin recovery of the file(s) on drive C: XXXXX of YYYYY bytes recovered
Plik DOKUMENT.TXT nadal znajduje się na dysku, lecz został ucięty w miejscu wystąpienia błędu. Każdy sektor, którego nie potrafi odczytać RECOYER, zostaje zaznaczony jako uszkodzony, co zostanie uwidocznione przy następnym uruchomieniu programu CHKDSK. Możesz uruchomić CHKDSK przed i po wykonaniu polecenia RECOYER, dzięki czemu zobaczysz, w jaki sposób zmienił się
obraz dysku. Zmiany te zostały dokonane dzięki zaznaczeniu pozycji uszkodzonych sektorów w tablicach FAT.
Po użyciu RECOYER usuń plik DOKUMENT.TXT, ponieważ wykonałeś już jego kopię, zawierającą wszystkie poprawne dane możliwe do odzyskania.
Krok ten zakończy fazę drugą oraz całą operację. Masz już nowy plik, zawierający wszystkie możliwe do odzyskania dane pliku początkowego, a w tablicach FAT na dysku zostały już zaznaczone pozycje uszkodzonych sektorów.
Bądź bardzo ostrożny podczas używania polecenia RECOVER. Jego nieprawidłowe użycie może spowodować duże uszkodzenia plików i FAT-u. Jeśli wpiszesz polecenie RECOVER bez żadnych dodatkowych parametrów, program przyjmie, że chcesz odzyskać wszystkie pliki na dysku i zacznie operować na wszystkich znajdujących się na dysku plikach i katalogach. Przekonwertuje wszystkie katalogi na pliki, umieści nazwy plików w głównym katalogu, a następnie nada im nowe nazwy (FILEOOOO.REC, FILE0001.REC itd.). Proces ten właściwie usuwa z powierzchni dysku cały system plików. Nie używaj polecenia RECOVER bez podania nazwy pliku, na którym ma operować. Program ten może być równie niebezpieczny jak polecenie FORMAT.
SCANDISK Dobrym pomysłem jest regularne sprawdzanie partycji FAT w celu uchronienia się przed problemami omawianymi w tym rozdziale i trudnościami, które mogą z nich wyniknąć. Dużo prostszym i bardziej efektywnym rozwiązaniem niż omawiane programy CHKDSK i RECOYER jest program SCANDISK, dołączany do DOS-u w wersji 6.0 i wyższych, a także do Windows 9x. Ten program jest bardziej uniwersalny i dokładny niż CHKDSK i RECOYER, łącząc funkcje obu narzędzi, potrafiąc przy tym dużo więcej. Windows 95 OSR2 i Windows 98 zawierają wersję programu SCANDISK obsługującą także partycje FAT32.
SCANDISK przypomina okrojoną wersję samodzielnych programów do naprawy dysku, takich jak Norton Disk Doctor, i potrafi zweryfikować zarówno strukturę plików, jak i poprawność sektorów dysku. Gdy SCANDISK wykryje problem, potrafi naprawić zarówno strukturę kartotek, jak i tablicę FAT. Jeśli program wykryje błędne sektory zajmowane przez plik, w tablicy FAT klastry zawierające błędne sektory zaznacza jako złe, po czym podejmuje próbę odczytania danych z błędnych sektorów i zapisania ich w innym miejscu.
Windows 9x zawiera program SCANDISK w wersji dla DOS i dla Windows, odpowiednio w plikach SCANDISK.EXE i SCANDSKW.EXE. Windows 9x sprawdza dyski na początku procesu instalacji systemu oraz automatycznie wywołuje DOS-
ową wersję programu za każdym razem, gdy system nie został prawidłowo zamknięty. Możesz także uruchomić ten program z linii poleceń DOS-u lub wewnątrz pliku wsadowego, używając poniższej składni:
SCANDISK [dysk: [/SURFACE]
/ALL] [/CHECKONLY | /AUTOFIX [/NOSAVE]]
Aby zbadać i naprawić odinstalowany skompresowany wolumen DriveSpace, użyj składni:
SCANDISK dysk:\DRVSPACE.nnn [/CHECKONLY | /AUTOFIX[/NOSAYE]]
Aby zbadać, czy plik nie jest pofragmentowany, użyj następującej składni:
SCANDISK /FRAGMENT [dysk:][ścieżka]nazwapliku
Aby anulować naprawy poprzednio przeprowadzone, użyj następującej składni: SCANDISK /UNDO [dysk:] Dla [dysk:] należy określić stację zawierającą dysk Cofnij. /all bada i naprawia wszystkie dyski lokalne. /autofix
usuwa uszkodzenie bez monitowania.
/CHECKONLY bada dysk, ale nie usuwa żadnych uszkodzeń
/GUSTOM
konfiguruje i uruchamia program ustawieniami wplikuSCANDISK.INI.
ScanDisk zgodnie
z
/NOSAVE
z przełącznikiem /AUTOFIX, usuwa zagubione klastry, nie zapisując ich jako pliki.
/NOSUMMARY z przełącznikiem /CHECKONLY lub /AUTOFIX zapobiega zatrzymywaniu wyświetlania podsumowań po każdym ekranie.
/SURFACE /MONO
przeprowadza skanowanie powierzchni po innych badaniach
konfiguruje program ScanDisk do pracy z ekranem monochromatycznym.
Plik SCANDISK.INI, domyślnie znajdujący się w kartotece C:\W1NDOWS\COMMAND w systemie Windows 9x, zawiera wyczerpujące i dobrze udokumentowane parametry, których możesz użyć do kontrolowania
działania programu. Pamiętaj jednak, że opcje opisane w pliku SCANDISK.INI odnoszą się jedynie do DOS-owej wersji programu i nie odnoszą żadnego efektu w wersji przeznaczonej dla Windows.
Wersję przeznaczoną dla Windows możesz uruchomić, otwierając menu Start, Programy, Akcesoria, Narzędzia systemowe. Obie wersje programu sprawdzają i naprawiają tablice FAT oraz strukturę plików i kartotek, usuwają problemy z długimi nazwami plików, a także potrafią sprawdzać wolumeny skompresowane przy użyciu programu DriveSpace lub DoubleSpace.
SCANDISK udostępnia dwie podstawowe metody testowania: standardową i dokładną. Różnica pomiędzy nimi polega na tym, że po wybraniu dokładnego sprawdzania program sprawdza integralność powierzchni całego dysku, a nie tylko wymienione wcześniej obszary. Możesz także wskazać, czy chcesz uruchomić program interaktywnie, czy też pozwolić na automatyczne usunięcie napotkanych błędów.
Wersje programu dla DOS i dla Windows 9x w różny sposób sprawdzają tablicę FAT. Wersja dla DOS przeglądają i, jeśli potrzeba, naprawia jej podstawową kopię. Następnie naprawiona podstawowa kopia tablicy jest zapisywana w miejsce kopii zapasowej. Z drugiej strony, wersja programu dla Windows przegląda obie kopie tablicy FAT. Gdy program wykryje różnice pomiędzy kopiami, używa danych pochodzących z tej kopii tablicy, która wydaje się być bardziej poprawna, oryginalny FAT odtwarzany jest więc na podstawie najlepszych danych z obu tablic.
SCANDISK posiada także okno dialogowe zaawansowanych opcji, pozwalające na ustawienie następujących parametrów:
•
czy program na końcu pracy ma wyświetlać podsumowanie;
•
czy program ma zapisywać podsumowanie do dziennika;
•
jak powinny być traktowane skrzyżowane pliki (dwie pozycje kartoteki wskazujące na ten sam klaster);
•
jak powinny być naprawiane utracone fragmenty plików;
•
czy pliki mają być sprawdzane pod kątem nieprawidłowych nazw, dat i czasów.
Choć SCANDISK jest dobrym programem i stanowi duży postęp w stosunku do CHKDSK, w przypadku poważniejszych problemów z dyskiem zalecałbym jednak użycie jednego z komercyjnych pakietów, takiego jak Norton Disk Doctor. Komercyjne pakiety potrafią znacznie więcej niż programy naprawcze zawarte w DOS i Windows 9x.
Defragmentacja dysku Cała koncepcja systemu plików FAT opiera się na zapisie danych w klastrach, które mogą znajdować się w różnych miejscach na dysku. Dzięki temu system może w każdej chwili zapisywać pliki o dowolnym rozmiarze, ograniczonym jedynie pojemnością dysku. Proces śledzenia łańcucha w tablicy FAT w celu kolejnego odczytu wszystkich klastrów zajmowanych przez plik może wymagać od twardego dysku odczytania sektorów rozrzuconych po całej powierzchni dysku. Z powodu fizycznej pracy związanej z ruchem głowic dysku pomiędzy ścieżkami odczytanie mocno pofragmentowanego pliku z konieczności trwa dłużej niż pliku zapisanego w kolejnych klastrach.
Gdy przez pewien czas regularnie dodajesz, przenosisz i usuwasz pliki z dysku, stają się one coraz bardziej pofragmentowane, co powoduje obniżenie wydajności pracy dysku. Możesz temu zapobiec, okresowo uruchamiając program do defragmentacji dysku, na przykład program dostarczany wraz z Windows 9x. Gdy uruchamiasz defragmentator, program odczytuje każdy z plików na dysku, korzystając z tablicy FAT w celu dotarcia do wszystkich klastrów plików, bez względu na ich położenie na dysku.
Następnie program zapisuje plik do kolejno położonych klastrów, po czym usuwa oryginał. Kolejno odczytując, zapisując i usuwając pliki, program doprowadza do sytuacji, w której wszystkie pliki na dysku są ułożone w kolejnych klastrach. W rezultacie dysk może odczytać każdy plik przy minimalnym wymaganym ruchu głowic, co w przypadku większych plików daje zauważalną różnicę w szybkości odczytywania.
Program Defragmentator dysku z Windows 95 zapewnia jedynie podstawowe funkcje defragmentacji. Umożliwia także skonsolidowanie wszystkich wolnych klastrów w jeden duży obszar (wtedy całe defragmentowanie trwa dłużej). Wersja z Windows 98 posiada także możliwość grupowania plików programów według częstości ich wykorzystania, najczęściej używane pliki programów przenosząc na początek dysku, dzięki czemu aplikacje uruchamiają się szybciej.
Niezależne programy do defragmentacji dysku, takie jak program Speed Disk z pakietu Norton Utilities, posiadają dodatkowe umiejętności, na przykład możliwość zaznaczenia konkretnych plików w celu przesunięcia ich na początek dysku. Speed Disk potrafi także przeprowadzić defragmentację pliku wymiany Windows 9x, a także plików z atrybutami Ukryty lub Systemowy, których Defragmentator dysku nawet nie rusza.
Choć narzędzia defragmentacji dysku w Windows 9x i komercyjnych pakietach działają w sposób wysoce bezpieczny, powinieneś jednak zawsze pamiętać, że defragmentacja dysku jest potencjalnie niebezpieczną procedurą. Program odczytuje, usuwa i ponownie zapisuje każdy plik na dysku, co w wyniku niewłaściwego przerwania pracy może doprowadzić do utraty danych. Choć osobiście nigdy nie słyszałem o jakichkolwiek stratach w wyniku działania tych programów, nietrudno jednak wyobrazić sobie możliwość powstania błędów na przykład w wyniku wyłączenia zasilania podczas pracy programu. Przed przystąpieniem do defragmentacji gorąco zalecam sprawdzenie dysku programem SCANDISK, a także przygotowanie aktualnej kopii zapasowej.
Programy niezależnych producentów Gdy ujrzysz komunikat sector not found odnoszący się do dysku C:, z pewnością najlepszym rozwiązaniem jest użycie jednego z komercyjnych pakietów do naprawy dysku, a nie DOS-owego programu RECOYER ani nawet SCANDISK. Pakiet Norton Utilities firmy Symantec już od dawna dzierży palmę pierwszeństwa, jeśli chodzi o narzędzia do odzyskiwania danych. Ten pakiet jest bardzo rozbudowany i potrafi automatycznie naprawić większość problemów na dysku.
Programy takie jak Norton Disk Doctor potrafią przeprowadzić dużo bardziej szczegółowe naprawy, przy zachowanym dużo większym stopniu bezpieczeństwa. Jeśli problem zdarzył się na dyskietce, przed użyciem Norton Disk Doctora użyj programu Norton DiskTool. Ten program powstał specjalnie w celu odzyskiwania danych z dyskietek. Disk Doctor i DiskTool starają się odzyskać możliwie jak największą ilość danych z pliku, także w tablicy FAT zaznaczają klastry i sektory jako złe, aby nie były wykorzystywane w przyszłości. Oprócz tego te programy zapisują informacje pozwalające na cofnięcie całej operacji.
Disk Doctor i DiskTool stanowią część pakietu Norton Utilities firmy Symantec, zawierającego o wiele więcej użytecznych narzędzi. Na przykład Norton Utilities posiada wyśmienity edytor zawartości sektorów dysku, pozwalający na przeglądanie i modyfikację dowolnego sektora na dysku, łącznie z sektorami startowymi dysku i wolumenu, tablicy FAT oraz innych obszarów zwykle nie zajmowanych przez pliki. Obecnie nie ma innych programów tak rozbudowanych i wygodnych jeśli chodzi o edycję dysku na poziomie sektorów. Disk Editor zawarty w pakiecie Norton Utilities daje profesjonaliście możliwość pracy z dowolnym sektorem dysku, jednak wymaga to doskonałej wiedzy na temat struktur dysku i formatów sektorów. Także dokumentacja dostarczana wraz z pakietem jest wyśmienita i może stanowić doskonałe źródło cennych informacji.
Odtwarzanie danych może być lukratywnym zajęciem, którego mogą podjąć się osoby bardziej zaawansowane. Wiele osób jest skłonnych zapłacić dużo więcej za odtworzone dane niż za nowy dysk.
Oprócz automatycznego odzyskiwania jak największej ilości danych, Norton Utilities posiada szereg innych użytecznych modułów. Disk Doctor i Calibrate są dwoma modułami dołączonymi do pakietu (zarówno w wersji 8.0 dla DOS/Windows, jak i w wersji 3.0 dla Windows 95). Razem zapewniają wyczerpujące testowanie struktur danych i sektorów dysku. Disk Doctor pracuje zarówno z twardymi dyskami, jak i z dyskietkami. Testuje możliwość pracy napędu z systemem, który jest na nim zainstalowany, włącznie z sektorem startowym, tablicą alokacji plików (FAT), strukturą plików oraz obszarami danych. Calibrate. który jest używany do najbardziej intensywnego testowania obszaru danych na dysku, potrafi dokładnie przetestować także elektronikę dysku.
Możesz użyć programu Calibrate do przeprowadzenia dogłębnego testu dysków IDE i SCSI przy pomocy wzorów bitowych. Podczas tego procesu w każdym sektorze dysku dokonywany jest zapis milionów bajtów danych w celu sprawdzenia, czy dysk jest w stanie poprawnie przechować wszystkie dane. Jeśli sektor nie wydaje się być pewny, zawarte w nim dane są przenoszone w inne miejsce. Następnie w tablicy FAT taki sektor jest zaznaczany jako zły. Z powodu istnienia wyśmienitego Disk Editora każdy, zająć odzyskiwaniem danych, powinien zaopatrzyć się Również wiele z pozostałych modułów pakietu jest użytecznych. Najnowsze wersje zawierają program narzędzie diagnostyki sprzętu w komputerze.
kto poważnie chciałby się w pakiet Norton Utilities. bardzo dopracowanych i NDIAGS, rozbudowane
Najważniejszym elementem, jaki powinieneś wziąć pod uwagę przy zakupie komercyjnego pakietu do naprawy dysku, jest system plików, dla którego pakiet został przeznaczony. Na przykład Norton Utilities jest dostępny w wersji dla DOS i dla Windows 9x i tylko druga z nich potrafi obsłużyć partycje FAT32.
NTFS NTFS jest oryginalnym systemem plików Windows NT. Choć NT obsługuje także partycje FAT, NTFS zapewnia wiele dodatkowych zalet, do których należą długie nazwy plików, możliwość zapisu większych plików, poszerzone atrybuty oraz rozbudowaną ochronę. NTFS, podobnie jak cały Windows NT, został zaprojektowany całkowicie od początku, bez „dziedzicznego" obciążenia poprzednich systemów. Zapewnienie zgodności ze starszymi systemami operacyjnymi Microsoftu nie było najważniejsze, więc projektanci mogli poświęcić się całkowicie tworzeniu nowej 32-bitowej platformy. W rezultacie żaden system oprócz Windows NT nie potrafi odczytać partycji NTFS. To ważna informacja. Wszystkie inne systemy operacyjne Windows były oparte na systemie DOS i w specjalnych sytuacjach pozostawiały możliwość uruchomienia systemu jako linii poleceń DOS-u. Gdy trzeba było uruchomić specjalny program DOS-u do konfiguracji sprzętu lub wykonania awaryjnej naprawy dysku, aplikacje DOS-u zawsze były pod ręką.
Windows NT nie jest oparty na DOS-ie. Możesz otworzyć okno udostępniające linię poleceń systemu DOS, ale to okno jest jedynie emulacją DOS-u, a nie rzeczywistą powłoką. Nie da się, tak jak na przykład w Windows 9x, pominąć interfejsu graficznego i uruchomić systemu w linii poleceń. Możesz oczywiście całkowicie pominąć system NT, uruchamiając komputer z dyskietki z DOS-em, ale jeśli na dysku znajdują się partycje NTFS, z systemu DOS nie będziesz miał do nich dostępu. NTFS obsługuje nazwy plików o długości do 255 znaków, mogące zawierać spacje, kropki i inne standardowe znaki z wyjątkiem następujących: *?A;<>. Ponieważ offsety plików w NTFS są 64-bitowe, pliki i partycje mogą być naprawdę potwornie wielkie: o rozmiarze do 16 EB (eksabajtów; l eksabajt = 2M bajtów = 17 179 869 184 terabajtów)! Aby dać Ci pewne pojęcie, jak wiele jest to danych, zostało obliczone, że wszystkie słowa wymówione przez wszystkich żyjących dotąd ludzi zajęłyby „tylko" 5 EB danych.
Architektura NTFS Choć partycje NTFS wewnętrznie bardzo różnią się od partycji FAT, są zgodne z ogólną strukturą partycji na dysku opisaną wcześniej w tym rozdziale. Partycje NTFS są wymienione w głównej tabeli partycji w głównym rekordzie startowym dysku, podobnie jak partycje FAT, posiadają także sektor startowy wolumenu, choć jest on sformatowany nieco inaczej. Partycja NTFS jest oparta na strukturze o nazwie Master File Table (MFT, główna tablica plików). Koncepcja MFT rozszerza koncepcję zastosowaną przy projektowaniu tablicy FAT. Zamiast użycia tablicy odwołań do klastrów, MFT zawiera dużo bardziej szczegółowe informacje o plikach oraz kartotekach występujących w partycji. W pewnych przypadkach zawiera nawet same pliki lub katalogi.
Pierwszy rekord w MFT nosi nazwę deskryptora i zawiera informacje o samej MFT. Sektor startowy wolumenu partycji NTFS zawiera odwołanie wskazujące na położenie rekordu deskryptora. Drugi rekord w MFT to wierna kopia deskryptora, zapewniająca większą odporność na błędy na wypadek uszkodzenia pierwszej kopii. Trzeci rekord to rekord pliku dziennika. Wszystkie transakcje NTFS są zapisywane do dziennika, który może być wykorzystany do odzyskania danych w wypadku jakichś problemów z dyskiem. Pozostała, większa część MFT składa się z rekordów odnoszących się do plików i kartotek zawartych w partycji. Pliki NTFS mają postać obiektów, posiadających atrybuty zarówno systemowe, jak i użytkownika. Atrybuty w partycjach NTFS są o wiele bardziej rozbudowane niż kilka znaczników partycji FAT. Wszystkie informacje o pliku NTFS są zapisane w postaci atrybutów tego pliku. W rzeczywistości nawet same dane pliku są atrybutem. W odróżnieniu od pliku FAT, atrybuty pliku NTFS stanowią część samego pliku; nie są wymienione osobno w pozycji kartoteki. Kartoteki NTFS również stanowią rekordy MFT, składają się jednak głównie z indeksów zawierających spis plików w kartotece; nie zawierają rozmiaru, daty, czasu i innych informacji o poszczególnych plikach.
Tak więc tablica MFT partycji NTFS to coś więcej niż lista klastrów tablicy FAT; w rzeczywistości jest ona główną strukturą danych partycji. Jeśli plik lub kartoteka są względnie małe (mniejsze niż około 1500 bajtów), cały plik lub kartoteka mogą być przechowywane w samej tablicy MFT. W przypadku większych ilości danych rekord MFT dla pliku lub kartoteki zawiera wskaźniki do zewnętrznych klastrów partycji. Te zewnętrzne klastry są zwane rozszerzeniami. Wszystkie rekordy MFT, łącznie z de-skryptorem i plikiem dziennika, są w stanie wykorzystać rozszerzenia w celu przechowania dodatkowych atrybutów. Atrybuty pliku stanowiące część rekordu MFT są nazywane atrybutami rezydentnymi. Atrybuty przechowywane w rozszerzeniach są nazywane atrybutam i nierezydentnymi.
Zgodność NTFS Choć partycje NTFS nie są bezpośrednio dostępne dla DOS-u i innych systemów operacyjnych, Windows NT został zaprojektowany do pracy w sieci, więc oczekuje się, że pliki NTFS będą dostępne także w innych systemach operacyjnych. Z tego powodu NTFS nie zrezygnował z obsługi standardowych atrybutów plików DOS-u i konwencji nazw 8.3 systemu plików FAT.
Jednym z głównych powodów użycia NTFS jest ochrona, jaką ten system zapewnia plikom i kartotekom. Atrybuty ochrony NTFS są nazywane uprawnieniami i zostały wprowadzone po to, aby administrator systemu mógł kontrolować dostęp do plików i kartotek, nadając użytkownikom i grupom odpowiednie prawa. Takie podejście umożliwia o wiele precyzyjniejszą kontrolę, niż przy pomocy atrybutów plików systemu FAT, które odnoszą się do wszystkich użytkowników. W dalszym ciągu istnieje jednak możliwość zastosowania atrybutów systemu FAT dla plików NTFS. Służą do tego standardowe programy do operowania plikami w Windows NT, łącznie z Eksploratorem Windows NT i poleceniem DOS-u ATTRIB. Gdy poprzez sieć kopiujesz plik FAT na partycje NTFS, atrybuty FAT pozostają niezmienione aż do momentu, w którym zdecydujesz się wprost na ich usunięcie. Należy o tym pamiętać, ponieważ atrybuty FAT mają większe znaczenie niż atrybuty NTFS. Na przykład plik w partycji NTFS oznaczony atrybutem FAT-u Tylko do odczytu nie może zostać usunięty przez użytkownika Windows NT, nawet jeśli ten użytkownik posiada uprawnienia NTFS zapewniające mu pełny dostęp do tego pliku. Aby DOS i 16-bitowy Windows mogły poprzez sieć odwoływać się do plików na partycji NTFS, system plików zachowuje nazwy alias 8.3 dla każdego pliku i kartoteki na partycji. Algorytm tworzenia nazwy alias na podstawie długiej nazwy pliku jest taki sam, jak używany przez system VFAT w Windows 95. Windows NT udostępnia swoje partycje FAT z takim samym typem obsługi długich nazw plików, jaki jest używany przez VFAT, alokując dodatkowe pozycje kartoteki w celu przechowania długich nazw plików.
Tworzenie dysków NTFS NTFS może być zastosowany jedynie na twardych dyskach. Nie da się utworzyć
dyskietek NTFS (choć da się tak sformatować wymienne dyski w rodzaju Iomega Zip lub Jaz). Trzy proste sposoby utworzenia partycji NTFS są następujące: •
Utworzenie nowego wolumenu NTFS w pozbawionym partycji obszarze dysku podczas procesu instalacji Windows NT lub już po instalacji, przy pomocy programu Administrator dysków.
•
Sformatowanie istniejącej partycji jako partycji NTFS (powodując usunięcie wszystkich istniejących na niej danych), używając w Windows NT okna dialogowego Formatuj (dostępnego z Eksploratora Windows NT lub Administratora dysków) lub polecenia FORMAT w linii poleceń (z przełącznikiem /fs:ntfs).
•
Konwersja istniejącej partycji FAT na partycję NTFS (z zachowaniem istniejących na niej danych) podczas procesu instalacji Windows NT lub już po instalacji, przy pomocy programu CONYERT w linii poleceń.
Narzędzia NTFS Ponieważ partycję NTFS posiadają specyficzną architekturę, praktycznie żadna z omawianych wcześniej technik nie ma zastosowania w ich przypadku. Nie pomogą także żadne narzędzia dyskowe przeznaczone do użycia z parrycjami FAT. Windows NT posiada jedynie szczątkowe możliwości sprawdzania dysku i wyszukiwania błędów systemu plików i złych sektorów, ale poza nimi system operacyjny nie posiada innego narzędzia do naprawy lub defragmentacji dysku.
System plików NTFS posiada jednak własne, wbudowane możliwości automatycznej naprawy. Oprócz wbudowanych w Windows NT mechanizmów odporności na błędy, takich jak mirroring dysku (przechowywanie tych samych danych na dwóch różnych twardych dyskach) oraz podziału dysku z parzystością (podzielenia danych na kilka dysków i użycie informacji o parzystości w celu rekonstrukcji danych), system operacyjny wykorzystuje także technikę usuwania błędów zwaną remapowaniem klastrów.
Dzięki remapowaniu klastrów, gdy Windows NT wykryje na partycji NTFS zły sektor, automatycznie przenosi do innego klastra dane z klastra zawierającego ten sektor. Jeśli dysk jest częścią odpornej na błędy tablicy dysków, wszelkie utracone dane są rekonstruowane na podstawie kopii zapisanej na innym dysku lub dyskach. Mimo wszystkich tych mechanizmów, w dalszym ciągu brakuje prawdziwego programu do naprawy i defragmentacji dysku w Windows NT. Długo czekaliśmy, ale wreszcie pojawiły się takie niezależne programy, potrafiące naprawiać i defragmentować partycję NTFS.
Rozdział 24.
Rodzina komputerów osobistych IBM PC
Choć IBM nie jest już w stanie ustanawiać ważnych standardów PC (wydaje się, że tę rolę przejęły firmy Intel i Microsoft), wszystkie specyfikacje i standardy oryginalnych komputerów PC zostały ustanowione przez IBM i zastosowane w jego oryginalnej linii komputerów osobistych. Z oryginalnych komputerów IBM PC, XT oraz AT pochodzi wiele standardów, do których obecnie produkowane komputery nadal muszą się stosować. Są to wymiary i parametry płyt głównych, sposób zasilania komputera, architektura szyny ISA, użytkowanie zasobów systemu, architektura i mapowanie pamięci, interfejs systemu, złącza oraz wiele innych. W dodatku niemal każdy kompatybilny z PC komputer na rynku bazuje na jednej lub wielu formach oryginalnych produktów IBM. Oryginalna linia komputerów często nazywana jest Industry Standard Architecture (ISA) lub Classic PCs. IBM używa nazwy Family/1 systems.
W niniejszym rozdziale zostały zawarte informacje techniczne rodziny oryginalnych komputerów osobistych IBM. Większość informacji tu zawartych stanowi jakby lekcję historii; łatwo możesz dostrzec, jak daleko zaszły komputery kompatybilne z IBM, jeśli porównasz je z oryginalnymi standardami PC, na których gruncie powstały. Uważam, że są to wartościowe informacje, dzięki którym można nauczyć innych ludzi źródeł pochodzenia tego, co dziś nazywamy komputerami kompatybilnymi z PC.
Ponieważ komputery kompatybilne z PC w większości bazują na komputerach IBM XT. a już szczególnie AT, możesz przekonać się, skąd pochodzą projekty płyt głównych, obudów, zasilaczy, pozycji gniazd rozszerzeń, portów i innych komponentów płyty głównej. Możesz również ujrzeć i porównać wydajności oferowane przez te oryginalne komputery. Pomimo iż upłynęło wiele czasu od zaprzestania produkcji tych komputerów, byłem zdumiony, jak wielu z nich nadal się używa. Nadal natrafiam na te stare komputery, będące w użyciu przez prywatne osoby, duże korporacje, biura rządowe, wojsko. Często jedyną częścią pozostałą z oryginalnych komputerów jest obudowa i zasilacz,
ponieważ nowsze płyty Baby-AT z łatwością można umieścić w oryginalnych komputerach IBM.
Cechy poszczególnych modeli W poniższej części omówione zostały składniki wszystkich wersji oryginalnych komputerów IBM. Omówione są tu również ich detale techniczne i specyfikacje. Każdy komputer posiada wiele standardowych części. Podstawowym komponentem jest płyta główna, na której umieszczany jest CPU (główna jednostka przetwarzania lub mikroprocesor) oraz inne podstawowe składniki komputera. Każdy komputer produkowany przez IBM posiada również obudowę z wbudowanym zasilaczem, klawiaturę, pewne standardowe kontrolery lub karty rozszerzeń, często też jakiś rodzaj napędu dyskowego.
Możesz odnaleźć tu zarówno opisy różnic pomiędzy modelami, jak i opisy poszczególnych podmodeli wraz z ich cechami charakterystycznymi. Ukazane są również zmiany zachodzące między następującymi po sobie wersjami modeli.
W celu zwiększania Twojej wiedzy dodane zostały informacje o numerach kodowych niektórych systemów i opcji. Informacje te nie są szczególnie przydatne i mogą posłużyć jedynie dla zaspokojenia Twojej ciekawości; wszystkie te komputery nie są już produkowane i właściwie nie są dostępne. Jednak warto zauważyć, że IBM nadal posiada zapasy i sprzedaje części do tych nie produkowanych już komputerów. IBM nadal posiada części zamienne nawet do oryginalnych komputerów PC, XT oraz AT!
Oryginalne komputery IBM mogą zostać zidentyfikowane nie tylko dzięki swej nazwie, ale też za pomocą numeru przypisanego do każdego rodzaju komputera. IBM zazwyczaj umieszcza nazwę komputera na małej, mierzącej około l x l cala metalowej płytce umieszczanej na przedniej części obudowy; numer komputera znajduje się na podobnej płytce, najczęściej znajdującej się na tylnej części spodu komputera. Nazwy modeli i numery związane są ze sobą w następujący sposób: Numer wersji
Nazwa komputera
4860
PCjr
5140
PC Convertible (laptop)
5150
PC
5155
Portablc PC (dokładniej - przenośny XT)
5160
XT
5162
XT-286( dokładniej-AT)
5170
AT
Warto wiedzieć, że nowoczesne komputery często są zaprojektowane tak, by były fizycznie kompatybilne z oryginalnymi komputerami IBM, dzięki czemu możesz (i często powinieneś) wymienić jakąkolwiek uszkodzoną lub przestarzałą część starszego, oryginalnego komputera IBM na układ nie wyprodukowany przez IBM. Dzięki temu możesz nabywać nowsze lub ulepszone części o jakości porównywalnej do oryginałów, ale za dużo niższą cenę. Na przykład w jednym z oryginalnych komputerów 286 IBM AT mam w tej chwili płytę główną pod Pentium MMX, 64 MB RAM, 9 GB dysk SCSI. CD-ROM 12x i wiele innych rozszerzeń. Oczywiście, jedyne elementy pochodzące z oryginalnego komputera IBM to zasilacz i obudowa, które mająjuż ponad 14 lat!
Wprowadzenie do komputerów PC (5150) 12 sierpnia 1981 r. IBM zaprezentował „Komputer Osobisty (PC) IBM". Komputer ten został oficjalnie wycofany ze sprzedaży 2 kwietnia 1987 r. Podczas prawie sześcioletniego istnienia PC na rynku IBM dokonał tylko kilku podstawowych zmian w komputerze. W kwietniu 1983 r. zmieniono projekt podstawowych obwodów płyty głównej w celu umożliwienia korzystania z 64 kB kości RAM. Powstały również trzy wersje BIOS-u, jednak większość innych specyfikacji pozostała niezmieniona. Ponieważ komputery PC mają stosunkowo niewielkie możliwości rozbudowy, a IBM już ich nie sprzedaje, standard PC w porównaniu do większości innych jest przestarzały.
Standardowy zasilacz umożliwia podłączenie tylko stacji dysków lub dysków zewnętrznych z własnym zasilaniem. IBM, co prawda, nigdy nie oferował dysków wewnętrznych dla PC, ale wielu niezależnych od niego producentów wypełniło tę lukę. Jednostka systemowa była sprzedawana w wielu konfiguracjach, z pojedynczymi lub podwójnymi stacjami dysków. Na samym początku jedna z wersji ukazała się bez stacji dysków, inne zawierały jednostronne stacje dysków.
Płyta główna komputerów PC bazowała na 16-bitowym mikroprocesorze 8088 Intela i zawierała wbudowany w ROM interpreter języka BASIC Microsoftu - Microsoft Casette BASIC. Standardowa konfiguracja PC posiadała tylko 16 kB RAM (gdy komputer ten został po raz pierwszy zaprezentowany), późniejsze wersje mogły obsłużyć do 256 kB RAM na płycie głównej. Stosowano dwa projekty płyty głównej. Komputery sprzedawane przed marcem 1983 r. posiadały płytę główną umożliwiającą zamontowanie co najwyżej 64 kB RAM, komputery sprzedawane później umożliwiały zamontowanie na płycie głównej 256 kB RAM. W obu
przypadkach ilość pamięci zwiększało się, umieszczając karty pamięci w gniazdach rozszerzeń.
Pierwszy bank kości pamięci każdego PC przylutowywrano do płyty głównej. Przyluto-wana pamięć jest bardziej niezawodna, ale uniemożliwia dokonywanie łatwych napraw, ponieważ nie da się w łatwy sposób wymienić uszkodzonych kości pamięci znajdujących się w pierwszym banku. Uszkodzone kości muszą zostać wylutowane, a na ich miejsce powinno zostać zamontowane gniazdo rozszerzeń, w które można będzie włożyć kości zastępcze. IBM proponuje wymianę całej płyty głównej, gdy serwisuje uszkodzoną pamięć. Biorąc pod uwagę dzisiejszą wartość tych komputerów, lepszym rozwiązaniem jest zamiana uszkodzonej płyty głównej na jedną z wielu dostępnych na rynku kompatybilnych płyt głównych. Naprawa takiego samego uszkodzenia w komputerze XT jest znacznie prostsza, ponieważ cała pamięć XT umieszczana jest w gniazdach.
Jedynym produkowanym przez IBM napędem dyskowym dla komputerów PC jest dwustronna (320 lub 360 kB) stacja dysków. W komputerze PC możesz zainstalować najwyżej dwie stacje dysków IBM lub też cztery, o połowę niższe, stacje sprzedawane przez producentów niezależnych. Jednostka systemowa posiada pięć gniazd, w które możesz włożyć karty rozszerzeń dodatkowych urządzeń lub pamięci. Do wszystkich gniazd można wkładać karty rozszerzeń o pełnej długości. W większości konfiguracji PC komputer posiada co najmniej umieszczony na karcie rozszerzeń sterownik stacji dysków. Drugie gniazdo musisz przeznaczyć na kartę graficzną, co pozostawia Ci trzy wolne gniazda, w których możesz umieścić dodatkowe karty rozszerzeń. Wszystkie wersje PC posiadają 63,5 watowy zasilacz chłodzony wentylatorkiem. Niska moc zasilacza nie pozwala na wykorzystanie wielu możliwych rozszerzeń, a już szcze-Sólnie tych, które pochłaniają duże ilości energii. Takimi właśnie rozszerzeniami są na przykład twarde dyski. Często zdarza się, że słaby zasilacz musi zostać wymieniony na zasilacz o większej mocy, umieszczany na przykład w komputerach XT. Rysunek 24.1 przedstawia wygląd wnętrza jednostki systemowej PC.
Standardowym elementem PC jest 83-klawiszowa klawiatura podłączana z tyłu komputera za pomocą sześciostopowego kabla. Na rysunku 24.2 został ukazany tylny panel PC.
Większość konfiguracji PC zawiera następujące główne komponenty:
•
mikroprocesor Intel 8088;
•
zawarte w ROM-ie programy diagnostyczne (POST);
•
zawarty w ROM-ie interpreter języka BASIC;
•
256 kB dynamicznej RAM;
•
kontroler stacji dysków;
•
jedną lub dwie stacje dysków 360 kB;
•
zasilacz 63,5 W;
•
pięć gniazd rozszerzeń I/O;
•
gniazdo pod koprocesor matematyczny 8087.
Modele i możliwości PC Choć przed marcem 1983 r. dostępnych było wiele różnych konfiguracji komputera IBM PC, w późniejszym czasie można było kupić tylko dwie wersje. Modele te różniły się tylko ilością stacji dysków jedną lub dwiema. IBM oznaczył je w następujący sposób:
IBM PC 5150 Model 166. 256 kB RAM, jedna stacja dysków 360 kB. IBM PC 5150 Model 176. 256 kB RAM, dwie stacje dysków 360 kB. Komputery IBM PC nigdy nie były dostępne z fabrycznie montowanym twardym dyskiem (model XT był sprzedawany z twardymi dyskami) głównie dlatego, że jednostka systemowa miała ograniczone miejsce na rozszerzenia oraz oferowała zbyt mało zasobów. Po rozpoczęciu przez IBM sprzedaży komputerów XT zjedna stacją dysków (od 2 kwietnia 1985 r.) komputery PC stały się w gruncie rzeczy przestarzałe. Komputery XT oferowały dużo więcej możliwości za praktycznie tę samą cenę, więc po ukazaniu się na rynku komputerów XT dalsze inwestycje w PC właściwie straciły sens.
IBM oficjalnie wycofał z rynku komputery PC 2 kwietnia 1987 r. Plany IBM odnośnie tego komputera stały się oczywiste, gdy firma nie zapowiedziała nowego modelu z rozszerzoną klawiaturą, podczas gdy zapowiedzi takiej udzieliła w stosunku do wszystkich innych produkowanych przez nią systemów. Z perspektywy czasu zdumiewający jest fakt, że komputer ten niewiele się zmienił przez cały, sześcioletni okres sprzedaży, a mimo to cieszył się dużą popularnością.
W tabeli 24.1 ukazane zostały numery modeli komputerów IBM PC i ich części dodatkowych.
Przydatny Tobie komputer możesz stworzyć poprzez dokupienie wymaganych komponentów, jak na przykład 640 kB pamięci, twardego dysku czy też stacji dysków. Tylko Ty decydujesz, w rozbudowę jakiej części komputera zainwestujesz swe pieniądze.
Zanim pomyślisz o rozbudowie komputera PC ponad podstawową konfigurację, musisz zmienić następujące jego elementy:
•
BIOS (wersję);
•
63,5 watowy zasilacz.
Ponieważ wszystkie komputery PC sprzedawane po marcu 1983 mają już najnowszy, dostępny dla nich BIOS, najczęstszym problemem przy rozbudowie komputera PC jest zasilacz o małej mocy. Jeśli posiadasz wcześniejszą wersję komputera PC, musisz uaktualnić ROM, ponieważ jego wczesne wersje nie posiadały wielu wymaganych możliwości i funkcji. Najpoważniejszą ich wadąjest to, że nie sprawdzają, czy w pamięci w zakresie COOOO-DFFFF (UMA) znajdują się ROM-y kart rozszerzeń.
Wersje BIOS-u PC W komputerach IBM PC stosowano trzy różne wersje BIOS-u. Mogą one zostać zidentyfikowane dzięki swojej dacie oraz poniższym cechom:
24 kwietnia 1981 r. Pierwsza wersja BIOS-u PC; potrafi obsłużyć do 544 kB RAM, w dodatku nie sprawdza, czy w UMA znajdują się pamięci ROM kart rozszerzeń. Takie pamięci są umieszczane na przykład przez karty graficzne EGA/YGA, kontrolery twardych dysków, kontrolery SCSI. BIOS ten jest już bardzo trudno napotkać i jakikolwiek komputer, który go posiada, jest niemalże okazem kolekcjonerskim, a zarazem jednym z pierwszych komputerów PC.
19 października 1981 r. Druga wersja BIOS-u PC; nadal posiada te same ograniczenia - potrafi obsłużyć maksymalnie zaledwie 544 kB RAM, nie skanuje UMA - poprawiono w nim jednak parę niewielkich błędów wyświetlania. Ten BIOS również nie jest zbyt znany.
27 października 1982 r. Trzecia i ostateczna wersja BIOS-u PC; potrafi obsłużyć pełne 640 kB RAM pamięci podstawowej, poszukuje także w obszarze UMA ROMów kart rozszerzeń. Komputer PC, by w ogóle był użyteczny, musi posiadać właśnie tę wersję BIOS-u. Jeśli posiadany przez Ciebie BIOS jest jedną ze starszych wersji, zwróć uwagę, że IBM sprzedaje zestaw uaktualniający BIOS (opcja o numerze 1501005).
W tabeli 24.2 zostały wypisane wersje BIOS-ów różnych komputerów (PC, XT oraz AT) Family/1 IBM. Zostało również wyjaśnione znaczenie poszczególnych bajtów ID. podmodelu oraz wersji, które mogą zostać określone poprzez wywołanie systemowej funkcji:
Int 15h, CO = zwraca parametry konfiguracji komputera
Niektóre z komputerów, jak na przykład PC oraz początkowe wersje XT i AT, zwracają tylko bit ID; gdy projektowano te komputery, bity wersji i podmodelu nie były jeszcze określone. W tabeli zawarta jest również ilość dysków obsługiwanych przez BIOS poszczególnych komputerów AT i XT-286.
Tabela 24.2. Daty BIOS-u systemowego komputerów Familv l IBM
Informacje o dacie BIOS-u można odnaleźć w pamięci każdego komputera kompatybilnego z PC pod adresem FFFF5H. Adres ten można obejrzeć za pomocą prostego polecenia DOS-u DEBUG. Aby zobaczyć datę BIOS-u, wykorzystując polecenie DEBUG, wykonaj następujące polecenia w linii komend DOS-u:
C:\>DEBUG -D FFFF:5 L
30 31 2F-32 32 2F 39 37
FFFF:0000
01/22/97
-Q
W powyższym przykładzie komputer zawiera BIOS z datą 01/22/97.
Weryfikacja techniczna PC Poniżej zostały wypisane dane techniczne komputerów osobistych PC i klawiatury. Znajdziesz tu informacje o architekturze systemu, konfiguracjach i pojemności pamięci, standardowych cechach komputera, napędach dyskowych, a także specyfikacje fizyczne i środowiskowe. Ten rodzaj informacji może być pomocny przy określaniu części, niezbędnych do naprawy lub rozbudowy komputera. Na rysunku 24.3 zostało ukazane rozmieszczenie poszczególnych komponentów na płycie głównej komputera PC.
W tabelach 24.3 oraz 24.4 zostały wypisane konfiguracje przełączników na płycie głównej PC (oraz XT). Komputery PC posiadają dwa dziewięciopozycyjne bloki przełączników (Blok przełączników l. oraz Blok przełączników 2.). Komputery XT posiadają tylko Blok przełączników 1. W komputerach PC dodatkowy blok przełączników używany jest do ustalania ilości pamięci, jaką rozpozna komputer. Komputery XT automatycznie wykrywają, ile zainstalowano pamięci.
Wprowadzenie do komputerów PC Corwertible (5140) IBM zaznaczył swą obecność na rynku laptopów 2 kwietnia 1986 r., wprowadzając do sprzedaży komputer o nazwie IBM 5140 PC Convertible. Komputer ten wyparł wcześniejszy, nie produkowany już model, o nazwie 5155 Portable PC. Komputer IBM 5140 nie odniósł zbyt dużych sukcesów. Inne laptopy posiadały dyski o większej pojemności, szybsze procesory, wyświetlacze oferujące bardziej czytelny obraz, były też tańsze i miały mniejsze wymiary. To wszystko zmusiło IBM do dokonania ulepszeń w swoim komputerze przenośnym. Ponieważ jednak ulepszenia te sprowadziły się jedynie do poprawienia jakości obrazu wyświetlacza, komputery
PC Convertible nigdy nie zajęły poważnego miejsca na rynku. Są one jednak ważne z dwóch powodów: pierwszym z nich jest zaznaczenie przez IBM swojej obecności na rynku przenośnych laptopów i notebo-oków, rynku, na którym IBM odnosi obecnie olbrzymi sukces dzięki komputerom ThinkPad. Drugim ważnym powodem jest to, że komputery PC Convertible były pierwszymi komputerami IBM wyposażanymi w stacje dysków 3 1/2".
Komputery PC Corwertible były dostępne w dwóch wersjach, sprzedawanych jako Model 2 i Model 22. Model 2 posiadał mikroprocesor 80C88 4,77 MHz, 64 kB ROM, 256 kB statycznej RAM, odłączalny wyświetlacz ciekłokrystaliczny LCD 80 x 25, dwie stacje dysków 3 1/2", 78-klawiszową klawiaturę, zasilacz AC oraz akumulatory. Zawierał również pakiet programów: Application Selector, SystemApps, Tools, Exploring The IBM PC Convertible oraz Diagnostics. Model
022 składał się z tych samych części i dodatkowo zawierał oprogramowanie diagnostyczne. Pamięć obu wersji można było rozszerzyć do 512 kB, używając 128 kB kart pamięci. Dodatkowo, w jednostce systemowej można było zamontować wewnętrzny modem 1200 bps. Dzięki dostępnym na rynku rozszerzeniom komputery IBM PC Convertible mogły posiadać 640 kB pamięci. Pomimo iż komputery taktowane częstotliwością 4,77 MHz były bardzo wolne, posiadały wartą odnotowania cechę - używały układów pamięci statycznej. Pamięć statyczna SRAM (Static RAM), w odróżnieniu od standardowo montowanej pamięci dynamicznej DRAM (Dynamie RAM}, nie wymaga sygnału odświeżania, którego wysyłanie na standardowych komputerach IBM PC oraz XT pochłaniało około 7 procent czasu procesora. Oznacza to, że komputery IBM PC Cotwertible są około 7 procent szybsze od komputerów PC lub XT, pomimo iż są taktowane z tą samą częstotliwością. Dzięki większej niezawodności pamięci Static RAM (w porównaniu z DRAM) wykorzystanej w PC Convertible, w komputerach tych nie dokonuje się kontroli parzystości pamięci. Dodatkową zaletą układów Static RAM jest ich zmniejszone zapotrzebowanie na energię.
Z tyłu każdej jednostki systemowej znajduje się interfejs szyny rozszerzeń. To 72pinowe złącze umożliwia dołączanie do komputera drukarki, portu szeregowego lub równoległego oraz karty graficznej CRT. Każde rozszerzenie jest zasilane z jednostki systemowej. Karta graficzna CRT działa tylko wówczas, gdy komputer jest zasilany ze standardowego zasilacza AC. Dodatkowy monitor, podłączany do karty graficznej CRT, musi posiadać odrębne zasilanie.
Każda jednostka systemowa posiada odłączalny wyświetlacz LCD. Gdy komputer znajduje się w stałym miejscu, ekran LCD może zostać zastąpiony zewnętrznym monitorem. Gdy wyświetlacz LCD znajduje się w pozycji zamknięcia, tworzy pokrywę na klawiaturę i stacje dysków. W okresie popularności PC Convertible IBM oferował do niego trzy różne wersje wyświetlaczy. Pierwszym z nich był standardowy wyświetlacz LCD, który nie oferował dobrego kontrastu, w związku z czym występowały problemy z odczytywaniem wyświetlanych przez niego danych. Z powodu narzekań IBM wykonał ulepszony model, oferujący dużo większy kontrast i nazwał go Super Twisted. Trzeci, ostatni wyświetlacz, różnił się od pierwszego tylko fluorescencyjnie podświetlanym ekranem, dzięki czemu można było używać komputera również w słabiej oświetlonych miejscach.
Jednostka systemowa PC Convertible posiadała następujące cechy:
•
komplementarny mikroprocesor 80C88 (w technologii CMOS), taktowany częstotliwością 4,77 MHz;
•
dwa układy CMOS ROM, w których zawarto:
POST (Power-On Self Test) komponentów komputera; BIOS (Basic Input Output System);
interpreter języka BASIC;
•
256 kB pamięci CMOS Static RAM (rozszerzalnej do 512 kB);
•
dwie stacje dysków 3 1/2", 720 kB;
•
odłączalny wyświetlacz LCD, o rozdzielczości 80 kolumn na 25 linii (tryby graficzne 640 x 200 oraz 320 x 200);
•
kontroler LCD;
•
16 kB bufor pamięci obrazu;
•
8 kB RAM czcionek LCD;
•
kontroler opcjonalnej drukarki (#4010);
•
profesjonalna klawiatura (78 klawiszy);
•
zasilacz AC;
•
Baterie.
Do komputerów 5140 PC Corwertible można było zakupić następujące dodatki: •
128 kB kartę pamięci Static RAM (#4005);
•
drukarkę (#4010);
•
kontroler portu szeregowego/równoległego (#4015);
•
kartę graficzną CRT (#4015);
•
modem wewnętrzny (#4025);
•
kabel drukarki (#4055);
•
ładowarkę baterii (#4060);
•
zasilacz samochodowy (#4065).
Dla komputerów PC są opcjonalnie dostępne dwa modele monitorów: •
IBM 5144 PC Convertible Monochrome Display Model l (monitor monochromatyczny);
•
IBM 5144 PC Convertible Color Display Model l (monitor kolorowy).
Specyfikacja komputerów przenośnych PC Corwertible Poniżej wypisano specyfikację techniczną komputerów IBM 5140 PC Convertible. Ponieważ w komputerach przenośnych bardzo ważny jest ciężar, została wypisana waga jednostki systemowej i urządzeń dodatkowych. Rysunek 24.4 ukazuje rozmieszczenie poszczególnych komponentów płyty głównej komputera PC Convertible.
Rysunek 24.4
Aby poprawnie pracować na komputerze IBM 5140 PC Convertible, musisz posiadać PC DOS w wersji 3.2 lub nowszej. Nie można pracować pod wcześniejszymi wersjami DOS-u, ponieważ nie obsługują one stacji dysków 720 kB.
Modele i cechy komputerów PC Corwertible W tej części omówiono dodatki oraz szczególne cechy komputerów PC Convertible. Istnieje wiele rozszerzeń tych komputerów, od dodatkowej pamięci do zewnętrznych kart graficznych, kontrolera portu szeregowego/równoległego, modemów, a także drukarek.
Karty pamięci Karty pamięci 128 lub 256 kB rozszerzają podstawową pamięć jednostki systemowej. Możesz zamontować w komputerze obie karty, uzyskując 640 kB pamięci podstawowej.
Dodatkowa drukarka Dla komputerów PC Convertible dostępna jest specjalna drukarka, którą podłącza się bezpośrednio do gniazda z tyłu komputera. Można ją również podłączyć za pomocą opcjonalnego kabla. Dzięki specjalnej, ergonomicznej budowie bazującej na mikroprocesorze, oraz bezuderzeniowej, igłowej technice druku z prędkością 40 znaków na sekundę drukarka komputerów PC Convertible pobiera znacznie mniej energii niż inne modele. Zasilanie drukarki jest kontrolowane przez komputer. Drukarka posiada 24-elementową głowicę, potrafi drukować zarówno małymi, jak i dużymi literami 96 standardowych znaków ASCII. Możliwy jest także wydruk grafiki. Używając papieru termicznego lub podajnika taśmy z gładkim papierem, możesz uzyskać doskonałąjakość wydruku.
Dostępny jest również specjalny, 22 calowy (0,6 metra) kabel do drukarki, umieszczany w 72-pinowym gnieździe z tyłu komputera. Wykorzystując go, możesz używać drukarki, gdy nie jest bezpośrednio dołączona do komputera.
Kontroler portu szeregowego/równo ległego Kontroler portu szeregowego/równoległego podłączany jest z tyłu komputera. Udostępnia on kompatybilny z komputerami osobistymi IBM interfejs drukarki oraz asynchronicznej komunikacji poprzez port RS-232C.
Adapter kineskopowy (CRT Adapter) Adapter ten instaluje się z tyłu komputera. Po zainstalowaniu możesz do niego podłączyć oddzielny monitor. Takim monitorem jest na przykład PC Convertible Monochrome Display (monochromatyczny) czy też PC Convertible Color Display (kolorowy). Po użyciu dodatkowych przejściówek możesz do niego podłączyć również standardowe monitory CGA (Color Graphics Adapter}. Ponieważ karta posiada wyjście Composite Video, można do niej podłączyć także zwykły odbiornik telewizyjny.
Modemy wewnętrzne IBM oferuje dwa modele modemów wewnętrznych dla komputerów PC Convertible. Oba obsługują protokoły Bell 212A (1200 bps) lub Bell 103A (300 bps). Każdy z tych modemów był produkowany jako zestaw do łatwego montażu, zawierający dwie karty połączone kablem. Cały zestaw instalowało się w środku komputera. Pierwszy projekt modemu został wykonany dla IBM przez Novation i nie obsługiwał standardu poleceń i protokołów Hayes. Z tego powodu modem nie był kompatybilny z popularnym oprogramowaniem, które zazwyczaj obsługiwało wyłącznie standard Hayes. W celu uniknięcia problemów z oprogramowaniem IBM zmienił modem na jeden z w pełni kompatybilnych ze standardem Haney. IBM nigdy nie wyprodukował modemu szybszego niż 1200 bps dla komputerów Convertible. Na szczęście, możesz używać standardowego modemu podłączanego do portu szeregowego, choć nie jest to tak wygodne, jak korzystanie z modemu wewnętrznego.
Ładowarka akumulatorów/zasilacz samochodowy Ładowarka jest przeznaczona do pracy z napięciem zasilającym 110 V. Moc, którą dysponuje, nie wystarcza do pracy na komputerze podczas ładowania baterii. Zasilacz samochodowy umieszcza się w samochodowym gniazdku zapalniczki, dostarczającym prąd o napięciu 12 volt. Podczas używania zasilanego w ten sposób komputera ładowane są również baterie.
Monitory Monitor monochromatyczny dla komputerów PC Convertible (o przekątnej ekranu 9 cali) podłączany jest do karty adaptera kineskopowego. Dołączana jest do niego wtyczka zasilająca oraz kabel sygnałowy łączący monitor z tym adapterem. Sam monitor nie jest ani podobny, ani kompatybilny z monitorem monochromatycznym IBM dla większych komputerów osobistych. Ów adapter wysyła sygnał analogiczny do wysyłanego przez kartę graficzną CGA zwykłych komputerów. Jest on więc ekwiwalentem karty CGA komputerów osobistych.
Kolorowy monitor dla komputerów PC Convertible posiada większą, 13 calową przekątną ekranu. Tak samo jak monitor monochromatyczny, jest podłączany do wyjścia adaptera CRT (kineskopu). Dołączane są do niego głośniki, wtyczka zasilająca oraz kabel sygnałowy łączący monitor z adapterem CRT. Monitor ten jest również kompatybilny z kartą graficzną CGA.
W tabeli 24.5 zostały wypisane numery przypisane do poszczególnych wersji komputerów PC Convertible IBM.
Tabela 24.5. Numery komputerów PC Convertible IBM
Jednostka systemowa 5140 PC Corwertible
Numer
Dwie stacje. 256 kB. z aplikacjami systemowymi
5140002
Dwie stacje. 256 kB. be/. aplikacji systemowych
5140022
Wprowadzenie do komputerów XT (5160) Komputer PC XT, po raz pierwszy zaprezentowany 8 marca 1983 r., posiadał (początkowo standardowo, później jako opcję) 10 MB dysk twardy. Spowodowało to rewolucję w konfiguracjach komputerów osobistych. Wtedy posiadanie 10 MB twardego dysku było czymś szczególnym. Nazwa XT jest skrótem od „rozszerzony" (ang. eXTended). IBM wybrał tę nazwę, ponieważ komputery IBM PC XT zawierały wiele nowości, które nigdy nie były dostępne w standardowych komputerach PC. XT posiada osiem gniazd rozszerzeń umożliwiających szersze rozbudowanie możliwości
komputera oraz zasilacz o zwiększonej mocy. Cała jego pamięć znajduje się w bankach, a w dodatku płyta umożliwia rozbudowę pamięci do 640 kB bez zajmowania gniazd rozszerzeń. Możliwe jest również zainstalowanie wewnętrznego dysku twardego. Wszystkie te możliwości zostały osiągnięte dzięki zupełnie nowemu projektowi układów płyty głównej komputera XT. Komputer XT był sprzedawany w wielu konfiguracjach, różniących się od siebie głównie posiadanymi dyskami: jedna stacja dysków 360 kB, dwie stacje dysków 360 kB, jedna stacja dysków i jeden dysk twardy czy też dwie stacje dysków i twardy dysk. W pierwszych wersjach XT stacje dysków miały najczęściej pełną wysokość, w wersjach późniejszych stacje dysków miały tylko połowę wysokości. Komputery XT IBM w standardowej konfiguracji posiadały dwie stacje dysków i twardy dysk. Dzięki zastosowaniu stacji dysków o zmniejszonej wysokości wszystkie napędy zajmowały razem trzy z czterech zaczepów w obudowie. Dzięki temu zostawał wolny zaczep na dodatkowy twardy dysk.
IBM oferował twarde dyski tylko pełnej wysokości, o pojemności 10 lub 20 MB. W niektórych przypadkach instalował wprawdzie twarde dyski o połowę niższe, ale nigdy w sposób umożliwiający umieszczenie dwóch twardych dysków w jednym zaczepie. Jeśli chciałeś umieścić oba dyski w jednym koszyku, musiałeś albo zaopatrzyć się w dyski innego producenta, albo zmodyfikować położenie zamontowanych przez IBM niższych dysków. Na szczęście na rynku było dostępnych wiele zestawów do takiego montażu twardych dysków.
IBM używał także stacji dysków o różnej wysokości. Większość późniejszych modeli komputera XT posiadała stacje 3 1/2 cala, 720 kB. Były one dostępne zarówno w wersji wewnętrznej, jak i zewnętrznej. Korzystając z oryginalnych napędów IBM, można było zainstalować w komputerze maksymalnie dwie stacje dysków i dysk twardy. Używając o połowę niższych twardych dysków, można było zainstalować w tym samym komputerze dwa twarde dyski.
XT bazuje na stosowanym również w komputerach PC 8- i 16-bitowym mikroprocesorze Intel 8088 (CPU posiada 16-bitowe rejestry, ale tylko 8-bitową szynę danych), taktowanym z częstotliwością 4,77 MHz. Nie licząc dysku twardego, komputer XT jest takim samym komputerem jak PC. Wszystkie wersje posiadają co najmniej jedną 360 kB stację dysków oraz klawiaturę. Standardowa pamięć XT na płycie głównej zawiera się w przedziale od 256 do 640 kB. W komputerach XT nie zmieniono interfejsu twardych dysków.
Komputer XT posiada dziewięć gniazd, w których można umieścić karty sterowników dodatkowych urządzeń czy też karty pamięci. W dwóch gniazdach można umieszczać tylko krótkie karty, ponieważ w dalszej części obudowy znajdują się stacje dysków. XT standardowo posiada co najmniej kartę kontrolera stacji dysków (w wersji tylko ze stacjami dysków). W wersji z twardym dyskiem we wnętrzu komputera montowana jest również karta sterownika twardych dysków. Z tego powodu dla użytkownika (w zależności od wersji komputera) dostępnych jest pięć lub siedem gniazd rozszerzeń.
Na rysunku 24.5 ukazane zostało wnętrze komputera XT.
Ponieważ komputery XT posiadają zwiększone możliwości rozbudowy i twarde dyski, montowany jest w nich chłodzony powietrzem, 130 watowy zasilacz. Jest on w stanie znieść ponad dwukrotnie większe obciążenie niż zasilacz komputera PC i w zupełności wystarcza do zapewnienia energii pełnemu kompletowi dysków i kart rozszerzeń. Standardowym elementem wczesnych wersji XT była 83-klawiszowa klawiatura, która w późniejszych modelach została zastąpiona rozszerzoną, 101-klawiszową klawiaturą. Klawiatura jest połączona z komputerem półtorametrowym kablem.
Wszystkie konfiguracje komponenty:
komputera
PC
XT
zawierają
•
mikroprocesor Intel 8088;
•
zawarty w ROM-ie interpreter języka BASIC;
następujące
główne
•
kontroler stacji dysków;
•
jedną stację dysków 360 kB;
•
twardy dysk l O MB lub 20 MB wraz z kontrolerem (rozszerzone wersje XT);
•
port szeregowy (rozszerzone wersje XT);
•
zasilacz 135 W;
•
dziewięć gniazd rozszerzeń I/O;
•
gniazdo pod koprocesor matematyczny 8087.
Modele komputera XT i ich cechy Komputer XT był sprzedawany w wielu różnych konfiguracjach, ale początkowo dostępna była tylko jedna wersja. Model ten zawierał 10 MB twardy dysk, będący po raz pierwszy standardowym wyposażeniem komputerów osobistych. Po raz pierwszy również był on poprawnie obsługiwany przez system operacyjny i urządzenia peryferyjne. Komputer ten pomógł zmienić fabryczny standard komputerów osobistych, początkowo zakładający posiadanie przez nie tylko stacji dysków. Po ukazaniu się komputerów XT standardem stało się posiadanie przez komputery osobiste jednego lub więcej twardych dysków.
Dziś komputer bez twardego dysku byłby dla większości ludzi bezużyteczny. Oryginalne komputery XT były drogie, a w dodatku nie istniała możliwość kupienia ich bez twardych dysków. Wprowadziło to wyraźny podział pomiędzy komputerami XT a PC i zmyliło wielu ludzi nie wierzących, że różnica pomiędzy tymi komputerami w zasadzie ograniczała się tylko do twardego dysku. Dopiero po pewnym czasie od ukazania się komputerów XT IBM zaczął je sprzedawać również bez twardych dysków.
Oryginalny Model 087 komputera XT zawierał 10 MB twardy dysk, 128 kB RAM oraz standardowy port szeregowy. Po pewnym czasie IBM zwiększył ilość standardowo montowanej pamięci do 256 kB we wszystkich komputerach osobistych. Wersja XT ze zwiększoną ilością pamięci ukazała się jako Model 086. Pierwszy dostępny bez twardego dysku komputer XT został wprowadzony do sprzedaży 2 kwietnia 1985 r. Dzięki temu można było obniżyć koszty początkowego zakupu, a twardy dysk dokupić później. Komputery XT bez twardych dysków kosztowały tylko o 300 dolarów więcej niż komputery PC, a dzięki zasilaczowi o większej mocy, ułatwionej wymianie pamięci oraz dziewięciu gniazdom kart rozszerzeń oferowały o wiele większe możliwości rozbudowy. Wobec takiej alternatywy zakup komputera PC stał się nieopłacalny.
Wyższa cena XT była uzasadniona o wiele lepszym zasilaczem. Wprowadzono na rynek dwie wersje komputerów IBM PC XT bez twardych dysków: •
51650068 z jedną stacją dysków 360 kB,
•
51250078 z dwiema stacjami dysków 360 kB.
Obie wersje tych komputerów posiadały standardową obudowę, zasilacz oraz płytę główną komputerów XT. W wersji standardowej nie posiadały kontrolera portu szeregowego (komunikacji asynchronicznej). 2 kwietnia 1986 r. IBM zaprezentował wiele nowych modeli PC XT. Modele te znacznie różniły się od wersji poprzednich. Najbardziej oczywistą różnicą była nowa, 101-klawiszowa klawiatura. Dodatkowo posiadały one większe, 20 MB dyski oraz jedną lub dwie niskie (mające połowę wysokości standardowych) stacje dysków. Dzięki zmniejszonej wysokości obie stacje dysków można było umieścić w jednej kieszeni. W celu uzyskania kompatybilności z komputerami PC Convertible IBM zaczął montować w komputerach PC XT nowe stacje dysków 3 1/2 cala, 720 kB. W nowszych wersjach komputerów XT została zastosowana nieco inna technika montażu pamięci, umożliwiająca zainstalowanie 640 kB na płycie głównej bez potrzeby korzystania z dodatkowych kart pamięci. Rozwiązanie to obniżyło koszt komputera, zwiększyło jego niezawodność i dodatkowo zmniejszyło zapotrzebowanie na energię.
Dla modeli 267 i 268 komputerów XT standardem była jedna niska stacja dysków 5 1/4 cala 360 kB oraz 256 kB pamięci na płycie głównej. W modelach 277 i 278 dodatkowo montowano stację dysków 5 1/4 cala. Modele 088 oraz 089 posiadały wszystkie cechy modeli 267 i 268 i były dodatkowo wyposażone w kontroler twardych dysków, 20 MB twardy dysk, port szeregowy oraz 512 kB pamięci na płycie głównej.
W poniższej liście wypisano najważniejsze cechy nowych modeli:
•
modele 268, 278 oraz 089 standardowo posiadały nową, rozszerzoną klawiaturę (101 klawiszy) nie posiadającą diod statusu (interfejs XT nie potrafił ich obsłużyć);
•
w modelach 267, 277 oraz 088 montowano standardową klawiaturę PC XT;
•
większa pojemność dysków (20 MB);
•
standardowo montowana niska stacja dysków 5 1/4 cala, 360 kB;
•
dostępna niska stacja dysków 3 1/2 cala, 720 kB;
•
możliwość umieszczenia w jednym komputerze czterech urządzeń do przechowywania danych;
•
możliwość rozszerzenia pamięci do 640 kB na płycie głównej bez użycia gniazd rozszerzeń.
Najnowsze modele XT posiadały bardzo zmieniony BIOS. Zajmował 64 kB i wewnętrznie przypominał BIOS komputerów AT. Zostały rozszerzone testy POST, dodano obsługę nowej klawiatury i stacji dysków 3 1/2 cala.
Początkowo nowe wersje komputerów XT były niekompatybilne z niektórymi programami. Problemy koncentrowały się wokół nowej, 101-klawiszowej klawiatury oraz sposobu adresowania ROM-u. Problemy te nie były jednak poważne i zostały szybko usunięte przez producentów oprogramowania.
Warto zdać sobie sprawę, jak bardzo IBM zmienił swój komputer, nie zmieniając podstawowych założeń projektu płyty głównej. Zmienił się ROM, płyta główna była w stanie obsłużyć 640 kB pamięci bez wykorzystania gniazd rozszerzeń. W przypadku pamięci zastosowano bardzo proste rozwiązanie. IBM od początku przewidział taką możliwość, ale udostępnił ją dopiero w nowszych modelach XT.
W okresie popularności komputerów XT przerobiłem wiele z nich, naśladując sposób IBM-a. Po dodaniu do płyty zworki i jednego układu można już było instalować na niej 640 kB pamięci, nie korzystając z gniazd rozszerzeń. Po zainstalowaniu dodatkowego układu zmienia się adresowanie pamięci. W dwóch bankach należy wówczas umieścić kości 256 kB, a w dwóch pozostałych kości 64 kB. W sumie daje to 640 kB pamięci.
Wersje BIOS-u XT W komputerach IBM PC XT instalowano trzy wersje BIOS-u. Można je rozpoznać dzięki dacie i następującym cechom: •
8 listopada 1982 r. Oryginalny BIOS XT posiadał wszystkie cechy ostatnich (z datą 10/27/82) BIOS-ów PC, łącznie z obsługą 640 kB pamięci i skanowaniem UMA. BIOS ten używany był również w płytach głównych XT instalowanych w komputerach przenośnych IBM Portable PC (PPC).
•
10 styczenia 1986 r. W drugiej wersji BIOS-u XT dodano obsługę 101-klawiszowej klawiatury rozszerzonej oraz stacji dysków 3 1/2 cala, 720 kB.
•
9 maja 1987 r. Ostateczna wersja zawierała kilka poprawek niewielkich błędów w obsłudze rozszerzonej klawiatury.
W tabeli 24.2 wypisano wersje BIOS-u komputerów Family/1 (PC, XT oraz AT) IBM. Wyjaśnione zostało także znaczenie poszczególnych bajtów ID, podmodelu oraz wersji, które mogą zostać określone poprzez wywołanie systemowej funkcji:
Int 15h, CO = zwraca parametry konfiguracji komputera
Niektóre z komputerów, jak na przykład PC oraz początkowe wersje XT i AT, zwracają tylko bit ID; gdy projektowano te komputery, bity wersji i podmodelu nie były jeszcze określone. W tabeli zawarta jest również ilość dysków obsługiwanych przez BIOS poszczególnych komputerów AT i XT-286.
Informacje o dacie BIOS-u można odnaleźć w pamięci każdego komputera kompatybilnego z PC, pod adresem FFFF5h. Adres ten można obejrzeć za pomocą prostego polecenia DEBUG. Aby zobaczyć datę BIOS-u, wykorzystując polecenie DEBUG, wykonaj następujące polecenia w linii komend DOS-u:
C:\>DEBUG -D FFFF:5 L FFFF:0000
30 31 2F-32 32 2F 39 37
01/22/97
-Q
W powyższym przykładzie komputer zawiera BIOS z datą 01/22/97.
Specyfikacja techniczna XT Poniżej zostały wypisane dane techniczne komputerów osobistych XT. Znajdziesz tu informacje o architekturze systemu, konfiguracjach i pojemności pamięci, standardowych cechach komputera, napędach dyskowych, gniazdach rozszerzeń, specyfikacji klawiatury, a także specyfikacjach fizycznych i środowiskowych. Na rysunku 24.6 ukazane zostało rozmieszczenie poszczególnych komponentów na płycie głównej komputera XT. Rysunek 24.6 Płyta XT
W tabeli 24.6 zostały wypisane konfiguracje przełączników na płycie głównej XT. Płyta główna komputerów XT jest konflgurowana za pomocą jednego dziewięciopozycyjnego banku przełączników. Tabela 24.6. Ustawienia przełączników PRZEŁĄCZNIKÓW 1. (PC LXI)
płyty
głównej
PCI
XT
BLOK
W tabeli 24.7 zostały wypisane numery części i modeli komputerów XT.
Wprowadzenie do komputerów Portable PC IBM po raz pierwszy zaprezentował komputer Portable PC 16 lutego 1984 r. Komputer Portable PC został zaprojektowany tak, by w łatwy sposób można było go przenosić. Ma on wielkość małej walizki, posiada wbudowany monitor monochromatyczny; jedną stację dysków 5 C cala o połowie wysokości (wraz z miejscem na dodatkową stację dysków), 83-klawiszową klawiaturę, dwie karty rozszerzeń, kontroler stacji dysków oraz kartę graficzną CGA. Komputer posiada również uniwersalny zasilacz, przystosowany do pracy zarówno z napięciem 110/60 Hz, jak i 220/50 Hz. Na rysunku 24.7 został ukazany wygląd komputera Portable PC.
Rysunek
24.7
W komputerach Portable PC zastosowano płytę główną komputerów XT z 256 kB pamięci. Dzięki temu dostępnych jest osiem gniazd rozszerzeń, choć z powodu ograniczeń rozmiaru obudowy tylko w dwóch gniazdach można umieszczać karty rozszerzeń pełnej długości. Zasilacz jest właściwie taki sam jak w komputerach XT, choć został dostosowany do innych wymiarów obudowy komputerów Portable PC. Dodatkowo, niewielka część mocy zasilacza zużywana jest na dostarczanie energii do wbudowanego monitora. Komputery Portable PC mają te same możliwości co podobnie skonfigurowane komputery XT i osiągają porównywalną do nich wydajność.
Drugiego kwietnia 1986 r. IBM wycofał z produkcji komputery Portable PC, co zbiegło się z wejściem na rynek pierwszych produkowanych przez IBM laptopów PC Convertible. Komputery Portable PC są bardzo rzadkie, ponieważ sprzedano Rysunek 24.8.
ich bardzo niewiele, choć w wielu zastosowaniach okazywały się lepsze od odnoszącego wówczas duże sukcesy konkurencyjnego komputera Compaq Convertible. Portable PC nie zostały docenione przez prasę i społeczność użytkowników. Większość z nich nie zrozumiała, że były to po prostu przenośne XT i oferowały dużo więcej niż standardowe komputery PC. Może gdyby IBM nazwał je Portable XT, sprzedawałyby się lepiej.
Jednostka systemowa komputera Portable PC zawiera następujące ważne komponenty: •
mikroprocesor Intel 8088, 4,77 MHz; +
zawarte w ROM-ie programy
diagnostyczne (POST); •
zawarty w ROM-ie interpreter języka BASIC;
•
256 kB dynamicznej pamięci RAM;
•
dziewięć gniazd rozszerzeń (dwa długie gniazda, jedno gniazdo o l' długości oraz pięć gniazd krótkich);
•
gniazdo pod koprocesor matematyczny 8087;
•
karta graficzna CGA;
•
9" monitor monochromatyczny (bursztynowy);
•
interfejs stacji dysków;
•
4 jedną lub dwie stacje dysków 360 kB o połowie wysokości;
•
115 watowy uniwersalny zasilacz (l 15-230 V, 50-60 Hz);
•
lekką, 83-klawiszową klawiaturę;
•
obudowę z uchwytem do przenoszenia;
•
torbę podróżną na jednostkę systemową.
W komputerach Portable PC zastosowano płytę główną komputerów XT. Możesz ją zobaczyć na rysunku 24.6 Poniżej zostały wypisane dane techniczne komputerów Portable PC:
W tabeli 24.8 zostały wypisane numery części i modeli komputerów Portable PC.
W komputerach Portable PC wykorzystano tę samą stację dysków co w komputerach PCjr. Gdy po raz pierwszy zaprezentowano Portable PC, takiej stacji dysków używano jedynie w komputerach PCjr.
Wprowadzenie do komputerów AT IBM po raz pierwszy zaprezentował komputery AT (Advanced Technology) 14 sierpnia 1984 r. Komputery IBM AT posiadały wiele cech niedostępnych dla wcześniejszych komputerów PC. Osiągały większą wydajność, posiadały zaawansowany, 16-bitowy mikroprocesor, stacje dysków wysokiej gęstości (HD), twarde dyski, większą ilość pamięci oraz zaawansowany koprocesor. Pomimo tak dużych zmian komputery AT zachowały niezwykłą kompatybilność z większością oprogramowania i sprzętu przeznaczonego dla ich poprzedników.
Ten sam program uruchomiony zarówno na IBM XT, jak i IBM AT, na tym ostatnim wykonywał się trzy, cztery razy szybciej. Tak duże zwiększenie wydajności zostało osiągnięte dzięki mniejszej ilości cykli wymaganych do wykonania większości poleceń procesora 80286, zwiększonej częstotliwości taktowania procesora, 16-bitowej pamięci oraz zastosowaniu szybszego kontrolera i twardego dysku.
Komputery AT sprzedawano w wielu wersjach: jako podstawowy model (068), posiadający tylko stacje dysków, oraz wiele innych, rozszerzonych o twarde dyski. Każdy model bazował na wydajnym, 16-bitowym mikroprocesorze Intel 80286.
Wszystkie AT posiadały zapisany w ROM-ie interpreter języka BASIC oraz umieszczony w układach CMOS (Complementary Metal Oxide Semiconductor) podtrzymywany bateryjnie zegar czasu rzeczywistego wraz z datą. Wszystkie modele posiadały również stacje dysków wysokiej gęstości (1,2 MB) oraz klawiaturę z zamkiem blokującym. Podstawowe modele komputerów AT posiadały 256 kB pamięci, modele rozszerzone sprzedawane były z 512 kB. Dodatkowo, rozszerzone modele posiadały również 20 lub 30 MB twardy dysk i kontroler portu szeregowego/równoległego. Wszystkie wersje AT mogły zostać rozbudowane przez użytkownika. Umieszczając odpowiedni układ na płycie głównej, można było zwiększyć ilość pamięci w modelu podstawowym do 512 kB. We wszystkich wersjach AT można było zainstalować do 16 MB RAM, korzystając z kart pamięci. Nie licząc dysków standardowo montowanych w komputerach, IBM oferował tylko dwie wersje twardych dysków dla komputerów AT:
•
30 MB twardy dysk,
•
20 MB twardy dysk.
IBM oferował dla komputerów AT również trzy typy stacji dysków:
•
druga stacja dysków wysokiej gęstości (l ,2 MB);
•
stacja dysków podwójnej gęstości (320/360 kB);
•
nowa stacja dysków 3 1/2", 720 kB.
BlOS-y oryginalnych modeli 068 i 099 komputerów AT nie obsługiwały stacji dysków 720 kB. W związku z tym, aby stacja działała poprawnie, trzeba było wgrywać specjalny sterownik (w DOS-ie był to DRIYER.SYS). W późniejszych wersjach AT stacje dysków 720 kB były już bezpośrednio obsługiwane przez BIOS. W BlOS-ie nowszych wersji AT dodano obsługę stacji dysków wysokiej gęstości 3 1/2", 1,44 MB, choć IBM nigdy nie wprowadził do sprzedaży tak wyposażonych AT.
W komputerze AT maksymalnie możesz zainstalować dwie stacje dysków i jeden twardy dysk lub też dwa twarde dyski i jedną stację dysków. By poprawnie używać stacji dysków 5 1/4", musisz korzystać ze specjalnych dyskietek. Z powodu różnic w zapisie szerokości ścieżek pomiędzy stacjami wysokiej (1,2 MB) i podwójnej (360 kB) gęstości, w celu zachowania kompatybilności ze standardowymi komputerami PC i XT, można było nabyć stację podwójnej gęstości dla komputerów AT. Korzystając z odpowiedniej metody i rozumiejąc proces zapisywania danych przez stacje dysków, można wymieniać dyskietki pomiędzy stacjami 1,2 MB i 360 kB. W celu przeniesienia danych pomiędzy komputerem posiadającym stację 1,2 MB, a komputerem ze stacją 360 kB, należy je nagrać na stacji 1,2 MB, używając czystej, nieużywanej wcześniej dyskietki 360 kB. Nic więcej nie jest potrzebne do przeniesienia danych tym sposobem. Dokładne informacje na ten temat znajdują się w rozdziale 13. „Stacje dyskietek". IBM zaleca kupno stacji dysków 360 kB, dzięki czemu osiąga się pełną niezawodność oraz znaczne uproszczenie procesu przenoszenia danych.
Na płycie głównej komputerów AT znajduje się osiem gniazd rozszerzeń, w których można umieszczać karty pamięci, sterowniki dodatkowych urządzeń oraz karty rozszerzeń. W sześciu gniazdach można umieścić 8- lub 16-bitowe karty. W dwóch pozostałych mogą znaleźć się tylko karty 8-bitowe. We wszystkich modelach jedno z 16-bitowych gniazd rozszerzeń wykorzystywane jest przez kontroler twardych dysków i stacji dysków. Dodatkowo, w modelach rozszerzonych standardowo umieszczana jest karta kontrolera portu szeregowego/równoległego, zajmująca jedno z gniazd 8-bitowych. W związku z tym użytkownicy modelu podstawowego posiadają siedem wolnych gniazd rozszerzeń, a użytkownicy modeli rozszerzonych mogą umieszczać dodatkowe karty rozszerzeń tylko w sześciu gniazdach. Na rysunku 24.9 zostało ukazane wnętrze komputera AT.
Wszystkie modele komputerów AT posiadają 192-watowy zasilacz, wentylatorek chłodzący o obrotach regulowanych temperaturą oraz zamek blokujący klawiaturę. Użytkownik musi wybrać tryb pracy zasilacza w zależności od napięcia zasilania występującego w jego miejscu zamieszkania. Dzięki dostosowywaniu prędkości obrotów wentylatorka chłodzącego do temperatury panującej w obudowie komputera znacząco obniżyła się głośność jego pracy. Gdy komputer jest zamknięty na zamek, uniemożliwione zostaje uniesienie pokrywy, uruchomienie systemu oraz wprowadzanie jakichkolwiek poleceń lub danych z klawiatury. Dzięki temu zostaje znacznie zwiększone bezpieczeństwo znajdujących się w komputerze danych.
Rysunek 24.9.
Klawiaturę podłącza się do komputera za pomocą blisko 2-metrowego kabla, dzięki czemu można ją umieścić w dogodnym dla użytkownika miejscu. W celu poprawienia funkcjonalności zostało ulepszone rozmieszczenie klawiszy, klawiatura posiada również wskaźniki trybu pracy. Na rysunku 24.10 pokazany został tylny panel AT. Wszystkie jednostki systemowe komputera PC AT zawierają następujące główne komponenty: •
mikroprocesor Intel 80286;
•
gniazdo pod koprocesor matematyczny 80287;
•
osiem gniazd rozszerzeń I/O (sześć 16-bitowych, dwa 8-bitowe);
•
256 kB dynamicznej pamięci RAM (model podstawowy);
•
512 kB dynamicznej pamięci RAM (modele rozszerzone);
•
zawarte w ROM-ie programy diagnostyczne (POST);
•
zawarty w ROM-ie interpreter języka BASIC;
•
kontroler stacji i twardych dysków;
•
stację dysków wysokiej gęstości 1,2 MB;
•
twardy dysk 20 lub 30 MB (modele rozszerzone);
•
interfejs portu szeregowego/równoległego (modele rozszerzone);
•
CMOS ustawienia konfiguracji wraz z podtrzymywanym bateryjnie
•
zamek blokady klawiatury (Keylock);
•
standardową, 84-klawiszową klawiaturę rozszerzoną 101 -klawiszową klawiaturę);
•
zasilacz uniwersalny.
(w
nowszych
modelach
-
Modele komputera AT i ich cechy Sprzedano wiele modeli komputerów AT od czasu ukazania się ich na rynku. Na początku IBM wprowadził dwa modele: model podstawowy (068) oraz model rozszerzony (099). Podstawową różnicę między nimi stanowił twardy dysk, montowany tylko w modelu rozszerzonym. Później IBM wprowadził jeszcze dwa inne modele komputerów AT, posiadające wiele nowych możliwości w porównaniu do swych poprzedników.
Pierwsze komputery AT posiadały procesor taktowany z częstotliwością 6 MHz. Częstotliwość taktowania decyduje o prędkości wykonywania poleceń przez procesor. Każda operacja wykonywana przez komputer wymaga co najmniej jednego, a najczęściej wielu cykli. Z tego powodu komputery o identycznej konfiguracji, różniące się wyłącznie taktowaniem zegara, będą działać z różną szybkością. Szybciej będzie pracować komputer z większą częstotliwością
taktowania, a różnica prędkości będzie proporcjonalna do różnicy prędkości zegarów. Częstotliwość taktowania, prędkość zegara czy też czas cyklu to po prostu różne nazwy tej samej cechy. Ponieważ nie wszystkie komputery AT pracują z tą samą szybkością zegara, przed zakupem jednego z nich powinieneś sprawdzić, z jaką częstotliwością jest taktowany.
Wszystkie modele AT posiadają połączony kontroler twardego dysku i stacji dysków. Karta ta jest wynikiem połączenia dwóch oddzielnych kontrolerów. Została zaprojektowana przez IBM i Western Digital (WD). a następnie wyprodukowana dla IBM przez WD. Na kontrolerze nie umieszczono BIOS-u, który na przykład znajduje się na karcie kontrolera Xebec. stosowanego w komputerach XT. W komputerach AT wszystkie procedury obsługi dysków znajdują się w BlOS-ie na płycie głównej. W celu zapewnienia obsługi różnych typów dysków IBM zakodował w BlOS-ie tabelę parametrów obsługiwanych dysków. W pierwszej wersji AT (posiadającej BIOS z datą 01/10/84) tabela zawierała tylko 14 typów dysków. Typ 15. został zarezerwowany dla wewnętrznego użytku i nie mógł być wykorzystywany. Pozostałe pozycje tabeli (od 16. do 47.) nie były używane i wypełniały je same zera. W późniejszych wersjach komputerów AT dodawano nowe typy twardych dysków.
Pierwsze dwa modele komputerów AT oznaczono jako model 068 (wersja podstawowa) oraz model 099 (wersja rozszerzona). Model 068 posiadał 256 kB pamięci na płycie głównej oraz jedną stację dysków 1,2 MB. Model 099 był lepiej wyposażony, posiadał 20 MB twardy dysk, kontroler portu szeregowego/równoległego oraz 512 kB pamięci na płycie głównej. IBM oznaczył płytę główną tych komputerów jako Typ l, była ona większa niż płyta główna oznaczona jako Typ 2. Pamięć umieszczano w czterech bankach po 128 kB - dawało to maksymalną ilość 512 kB pamięci na płycie głównej. Konfiguracja ta brzmi sensownie dopóki nie uświadomisz sobie, że nie ma 128 kB kości pamięci dostosowanych do komputerów IBM AT. IBM tworzył ten typ pamięci, umieszczając na sobie dwie kości pamięci 64 kB, a następnie sprzedając je razem. Przypuszczam, że IBM posiadał zbyt wiele kości pamięci 64 kB i w komputerach AT znalazł ujście dla ich nadwyżki.
2 października 1985 r. IBM wprowadził na rynek nową wersję komputera AT, oznaczoną jako Model 239. Komputer ten różnił się od modelu 099 tylko pojemnością twardego dysku, wynoszącą 30 MB. Dostępny był również drugi, opcjonalny twardy dysk, również o pojemności 30 MB, dzięki czemu maksymalna ilość danych możliwych do przechowywania na twardych dyskach Modelu 239 wzrosła do 60 MB. Zastosowana w komputerze płyta główna drugiej generacji (Typ 2), była o około 25 procent mniejsza od poprzednich płyt głównych (Typ 1), lecz w celu zapewnienia kompatybilności wszystkie gniazda były umieszczone w tej samej pozycji. Inne ważne ulepszenie płyty głównej dotyczyło pamięci. Zamiast 128 kB, banki obsadzane były kośćmi 256 kB. Dzięki temu wymagane było obsadzenie tylko dwóch banków, by uzyskać 512 kB pamięci na płycie głównej.
Komputery AT Model 239 posiadają następujące elementy:
•
512 kB RAM (standardowo);
•
6 MHz płytę główną Typ 2, o bankach obsadzanych kośćmi 256 kB;
•
kontroler portu szeregowego/równoległego (standardowo);
•
30 MB twardy dysk (standardowo);
•
nowy BIOS (data 06/10/85), obsługujący stacje dysków 3 1/2", 720 kB, bez potrzeby uruchamiania zewnętrznego sterownika. W BlOS-ie wpisane są również 22 typy obsługiwanych twardych dysków, łącznie z dołączanym standardowo do komputera twardym dyskiem 30 MB. POST „poprawia" częstotliwość taktowania, by wynosiła 6 MHz.
Projekt płyty głównej Typ 2 jest znacznie ulepszony w porównaniu z projektem płyty Typ l. Poprawione zostały czasy taktowania wewnętrznych operacji płyty oraz rozłożenie poszczególnych elementów. Ulepszenia te powodują ogólne podniesienie wydajności komputera.
W modelu 239 zmieniono znajdujące się w ROM-ie oprogramowanie. Nowa wersja BIOS-u obsługuje więcej typów twardych dysków i stacji dysków, a nowe procedury POST uniemożliwiają zwiększanie częstotliwości taktowania powyżej standardowych 6 MHz. Ponieważ w nowych ROM-ach dodano obsługę 30 MB twardych dysków. IBM zaczął sprzedawać zestaw zawierający nowy ROM i uaktualniający starsze komputery o 30 MB twardy dysk. Kosztował on 1795 dolarowi był jedyną możliwością uaktualnienia ROM-u.
Zestaw uaktualniający komputery AT Model 068 i Model 099 o twardy dysk 30 MB posiadał wszystkie cechy 30 MB twardego dysku przeznaczonego dla komputerów AT Model 239. Zestaw uaktualniający zawierał również nowy BIOS obsługujący 22 typy dysków (wraz z 14 obsługiwanymi przez wcześniejsze wersje AT), łącznie z nowym twardym dyskiem 30 MB. W celu zapewnienia właściwej obsługi nowego dysku do zestawu uaktualniającego dołączany był podręcznik oraz dyskietka z oprogramowaniem diagnostycznym.
Zestaw uaktualniający o 30 MB twardy dysk zawierał następujące elementy: •
30 MB twardy dysk;
•
dwa moduły nowego ROM BIOS-u;
•
podpórkę twardego dysku;
•
taśmę danych podłączaną pomiędzy kontrolerem a twardym dyskiem;
•
dysk instalacyjny i diagnostyczny ;
•
instrukcję wyjaśniającą sposób montażu twardego dysku w komputerach AT.
Niektórych ludzi denerwowało, iż nowsze komputery IBM automatycznie „poprawiają" częstotliwość taktowania procesora, by wynosiła dokładnie 6 MHz, co uniemożliwiało jakiekolwiek próby jego przetaktowania. Wielu zauważyło, że kwarc zegara w komputerach AT umieszczany był w gnieździe, co umożliwiało jego łatwą wymianę na szybszy. Co więcej, ponieważ projekt obwodów AT jest modułowy, wymiana kwarcu nie wywołuje żadnych zmian w innych obwodach komputera, tak jak to się działo w komputerach PC 1 PC XT. Za cenę nowego kwarcu (od l do 300 dolarów) i czasu potrzebnego do jego umieszczenia w gnieździe na płycie głównej uzyskiwało się nawet 30-procentowe przyspieszenie pracy komputera. Niestety, nowa wersja testów POST uniemożliwiła tak proste polepszenie wydajności komputera.
Wielu ludzi uważało, że zmiana ta została dokonana w celu uniemożliwienia istnienia „zbyt szybkich" komputerów AT, które mogłyby konkurować z minikomputerami IBM. W rzeczywistości starsze płyty główne celowo zostały zaprojektowane do pracy z częstotliwością 6 MHz, ponieważ IBM uważał, że oprogramowanie BIOS-u i krytyczne czasy oczekiwania systemu nie będą działać poprawnie przy większych częstotliwościach. W dodatku IBM zastosował wiele układów przeznaczonych do pracy przy częstotliwości 6 MHz, poczynając od samego procesora. Użytkownicy zwiększający taktowanie wcześniejszych komputerów AT często otrzymywali DOS-owe informacje o błędach. W niektórych przypadkach dochodziło do całkowitego zawieszenia się komputera z powodu błędów w układach działających nieprawidłowo przy wyższych częstotliwościach.
Wiele firm sprzedawało zestawy przyspieszające pracę komputera, wraz z oprogramowaniem pozwalającym przezwyciężyć niektóre problemy. Oficjalnym rozwiązaniem zalecanym przez IBM był zakup nowego komputera, pracującego z większą częstotliwością zegara. Chcąc zwiększyć prędkość komputera, .niezależnie od posiadanego modelu, można było zaopatrzyć się w sprzedawane przez wiele firm specjalne układy instalowane w miejsce kwarcu. Układy te potrafiły przeczekać procedury testujące POST-u i dopiero po ich wykonaniu zwiększyć częstotliwość taktowania. Niestety, nie znam nikogo, kto nadal wykonywałby i sprzedawał te układy.
2 kwietnia 1986 r. IBM zaprezentował modele 319 i 339 komputerów PC AT. Były one ostatnimi i najlepszymi wersjami komputerów AT. Podstawową różnicę pomiędzy nimi a modelami wcześniejszymi stanowił szybszy, 8 MHz zegar. Model 239 posiadał nową, 101-klawiszową, rozszerzoną klawiaturę. Model 319 był taki sam jak Model 239, ale posiadał standardową, oryginalną klawiaturę.
Poniższa lista zawiera podsumowanie cech modeli 319 i 339 komputerów AT: •
większa prędkość procesora (8 MHz);
•
płyta główna Typ 2 z 256 kB kośćmi pamięci; + (standardowo);
•
kontroler portu szeregowego/równoległego (standardowo);
•
30 MB twardy dysk (standardowo);
•
nowy BIOS (data 11/15/85) obsługujący 22 typy twardych dysków oraz stacje dysków 3 1/2" o pojemności zarówno 720 kB, jak i 1,44 MB; POST „poprawia" częstotliwość taktowania, by wynosiła 8 MHz;
•
101-klawiszowa klawiatura rozszerzona (standardowo w Modelu 339).
512 kB RAM
Najbardziej znaczącą fizyczną różnicą pomiędzy nowymi wersjami AT była rozszerzona klawiatura w Modelu 339. Klawiatura ta posiadała 101 klawiszy, tak samo zresztą jak klawiatura 3270. Można ją nazwać „firmową" klawiaturą IBM, ponieważ jest standardem we wszystkich nowych komputerach domowych. W nowych, 8 MHz wersjach AT nadal dostępna była 83-klawiszowa klawiatura dołączana do Modelu 319.
Nowe, 8 MHz wersje komputerów AT dostępne były tylko w wersji rozszerzonej, z 30 MB twardym dyskiem. Chcąc posiadać większy dysk, trzeba było dokupić i zamontować drugi dysk twardy lub po prostu wymienić standardowo instalowany dysk na większy. W modelach tych ROM obsługuje stacje dysków 3 1/2" zarówno 720 kB, jak i 1,44 MB. Te ostatnie były montowane tylko w modelach 339 i 319. Co ciekawe, IBM nigdy nie sprzedawał stacji dysków 1,44 MB jako urządzeń dodatkowych, pomimo iż były obsługiwane przez BIOS i kontroler. Oznacza to, że program konfiguracyjny znajdujący się na dysku „Diagnostics and Setup" nie oferował możliwości wyboru stacji dysków l ,44 MB przy konfiguracji systemu! Każdy, kto chciał wyposażyć komputer w taką stację dysków, musiał użyć jednego z programów public domain, zastępujących oryginalny program konfiguracyjny, lub też „ukraść" taki program z jednego z komputerów kompatybilnych z IBM. Dodanie do AT stacji dysków 1,44 MB było jednym z najczęściej dokonywanych rozszerzeń tego komputera, ponieważ nowsze komputery posiadały tę stację w wyposażeniu standardowym. Wcześniejsze wersje komputerów AT mogły korzystać ze stacji dysków 720 kB i 1,44 MB, ale trzeba było albo uaktualnić BIOS (zalecane), albo zainstalować programowy sterownik, umożliwiający obsługę tych stacji.
Wersje BIOS-u AT W komputerach IBM PC AT instalowano trzy wersje BIOS-u. Można je rozpoznać dzięki dacie i następującym cechom:
•
l stycznia 1984 r. Pierwsza wersja BIOS-u AT, obsługująca bezpośrednio tylko stacje dysków 360 kB i 1,2 MB. Obsługiwanych jest tylko 14 typów twardych dysków. Ta wersja BIOS-u była instalowana w modelach 068 i 099 z płytą główną Typ 1.
•
10 czerwca 1985 r. W drugiej wersji BIOS-u AT dodano bezpośrednią (nie są wymagane jakiekolwiek sterowniki) obsługę stacji dysków 3 1/2", 720 kB. Dodano również obsługę dodatkowych twardych dysków, dzięki czemu BIOS był w stanie obsłużyć 22 typy tych urządzeń. Dodano nowy test POST uniemożliwiający uruchomienie komputera po wykryciu częstotliwości taktowania różniącej się od 6 MHz. Ta wersja BIOS-u była montowana w modelu 239 z płytą główną Typ 2.
•
15 listopada 1985 r. W trzeciej i ostatniej wersji BIOS-u AT dodano bezpośrednią (nie są wymagane jakiekolwiek sterowniki) obsługę stacji dysków 3 1/2", l,44 MB. Dodano również obsługę rozszerzonej, 101klawiszowej klawiatury. Testy POST sprawdzają, czy komputer działa z częstotliwością taktowania 8 MHz i w razie wykrycia innej częstotliwości nie pozwalają go uruchomić. Ta wersja BIOS-u była montowana w modelu 319 z płytą główną Typ 2.
W tabeli 24.2 zostały wypisane wersje BIOS-ów różnych komputerów (PC, XT oraz AT) Family/1 IBM. Wyjaśnione zostało także znaczenie poszczególnych bajtów ID, podmodelu oraz wersji, które mogą zostać określone poprzez wywołanie systemowej funkcji: Int 15h, CO = zwraca parametry' konfiguracji komputera
Niektóre z komputerów, jak na przykład PC oraz początkowe wersje XT i AT. zwracają tylko bit ID; gdy projektowano te komputery, bity wersji i podmodelu nie były jeszcze określone. W tabeli zawarta jest również ilość dysków obsługiwanych przez BIOS poszczególnych komputerów AT i XT-286.
Informacje o dacie BIOS-u można odnaleźć w pamięci każdego komputera kompatybilnego z PC, pod adresem FFFF5h. Adres ten można obejrzeć za pomocą prostego polecenia DEBUG. Aby zobaczyć datę BIOS-u, wykorzystując polecenie DEBUG, wykonaj następujące polecenia w linii komend DOS-u: C:\>DEBUG
-D FFFF:5 L FFFF:0000
30 31 2F-32 32 2F 39 37
01/22/97
-Q
W powyższym przykładzie komputer zawiera BIOS z datą 01/22/97.
Ile twardych dysków zawarte w BlOS-ie Pycie głównej komputerów AT BIOS komputerów AT zawiera specjalne tabele wykorzystywane przez kontroler twardego dysku do ustalenia parametrów podłączonego do niego urządzenia. Po instalacji twardego dysku w komputerze AT „typ" zainstalowanego dysku zostaje zapisany w pamięci CMOS. Później, przy każdym uruchamianiu się komputera, parametry twardego dysku odczytywane są z odpowiedniej pozycji w tabelach twardych dysków zawartych w BlOS-ie. Z tego powodu starsze komputery obsługiwały mniejszą ilość dysków, ograniczała się ona tylko do wcześniej zdefiniowanych typów zapisanych w tabelach BIOS-u. Tabele używane przez komputery AT i PS/2 zostały wypisane w dalszej części tego rozdziału.
Różne wersje komputerów AT i PS/2 niekoniecznie musiały posiadać wszystkie z pokazanych tu wpisów. Numery poszczególnych wpisów zawartych w różnych wersjach BIOS-u są zależne od wersji i mogą się między sobą różnić. Na przykład oryginalny BIOS AT (01/10/84) obsługiwał tylko typy 1-14, podczas gdy późniejsze wersje BIOS-u AT (06/10/85 i 11/14/85) obsługiwały typy 1-14 i 16-23. XT-286 obsługiwał typy 1-14 i 16-24. Niektóre z komputerów PS/1 i PS/2 posiadały tabele wypełnione aż do typu 44.
W komputerach nie produkowanych przez IBM szybko wprowadzono typ „User Defmable" (definiowane przez użytkownika, który zamiast wybierać z wcześniej określonych typów, mógł ręcznie wpisać prawidłowe wartości) lub też „Auto Detect" (w którym komputer automatycznie odczytywał wymagane informacje bezpośrednio z twardego dysku).
Jeśli posiadasz komputer kompatybilny z PC, ale nie wyprodukowany przez IBM, zawarte w książce tabele mogą się różnić od tabel zapisanych w BlOS-ie Twojego komputera. W takim przypadku powinieneś sprawdzić tabele, korzystając z programu konfiguracyjnego (Setup) zawartego w BlOS-ie. Większość programów konfiguracyjnych wyświetla dostępne typy twardych dysków. Innym rozwiązaniem jest sprawdzenie dokumentacji Twojego komputera, płyty głównej lub BIOS-u, w których mogą się znajdować tabele prawidłowe dla Twojego komputera. Ostatnią alternatywą jest użycie programu podobnego do napisanego przez Seagate FINDTYPE, który skanuje BIOS komputera, odnajduje zawarte w nim tabele twardych dysków, a po odnalezieniu umożliwia dokonanie wydruku ich zawartości. Program ten może zostać zgrany z BBS-u lub strony domowej firmy Seagate. W
większości BIOS-ów komputerów kompatybilnych z IBM tabela zgadza się przez co najmniej 15 pierwszych pozycji.
Większość komputerów PS/2 zapisuje dane mapy wadliwych obszarów dysku w pierwszym cylindrze poza cylindrem figurującym jako ostatni na dysku. Te specjalne dane są odczytywane przez program formatujący niskopoziomowo, znajdujący się na dysku „Advanced Diagnostics" komputerów PS/2. Dzięki temu proces ten zostaje zautomatyzowany, co eliminuje możliwość wystąpienia błędu popełnionego przez człowieka, przynajmniej dopóki używasz tego programu do niskopoziomowego formatowania twardego dysku.
Tabel tego typu nie stosuje się przy kontrolerach twardych dysków IBM ESDI (Enhanced Smali Device Interfacc) oraz SCSI, ponieważ odczytują one wymagane dane bezpośrednio z twardych dysków i nie potrzebują dodatkowych informacji. Co ciekawe, w większości BIOS-ów komputerów PS/2 nadal można odnaleźć wpisy konfiguracji twardych dysków kontrolera ST-506/412, pomimo iż obsługuje on dyski wykonane w standardzie ESDI lub SCSI.
W tabeli 24.9 została zawarta lista parametrów twardych dysków kontrolerów ST506/412. umieszczona w BlOS-ie na płycie głównej komputerów AT lub PS/2.
Modyfikacja zawartych w BlOS-ie tabel parametrów twardych dysków Ponieważ tabele IBM-a w komputerach AT i XT-286 (a także wielu kompatybilnych) nie zmieniały się, często przy instalacji nowego dysku zachodziła konieczność jednoczesnej modyfikacji BIOS-u. Na przykład dodałem dwa nowe typy twardych dysków do jednego z moich starych komputerów AT. Te typy - 25 i 26 - posiadały następujące parametry:
W moim starym komputerze AT powyższe wpisy tabeli były niewykorzystane (wypełniały je zera). Dotyczyło to zresztą wszystkich dalszych typów z zakresu 2747. Dzięki zapisaniu w ROM-ach nowych ustawień, zawierających te wpisy, mogłem używać dysku Maxtor XT 1140, korzystając z kontrolera MFM (jako Typ 25) lub też z kontrolera RLL (jako Typ 26). Stosując tę metodę, nie potrzebujesz dodatkowego kontrolera z własnym BlOS-em, który podmieniałby zawarte w standardowym BłOSie płyty głównej wartości tabel twardych dysków. Oszczędzasz dzięki temu pamięć UMA w segmentach COOO lub DOOO, gdzie zazwyczaj rezyduje ROM kontrolera twardego dysku.
Jeśli jesteś zainteresowany przeprowadzeniem tej modyfikacji, zaopatrz się w IBM AT Technical Reference Manuał (sprzedawany przez IBM lub Annabooks). Została w nim opisana pozycja i format znajdujących się w BlOS-ie tabel twardych dysków.
Weryfikacja techniczna AT W poniższej części zostały zawarte dane techniczne komputerów osobistych AT. Znajdziesz tu informacje o architekturze systemu, konfiguracjach i pojemności pamięci, standardowych cechach komputera, napędach dyskowych, gniazdach rozszerzeń, specyfikacji klawiatury, a także specyfikacjach fizycznych i środowiskowych. Ten rodzaj informacji może być bardzo użyteczny przy określaniu, jakich części potrzebujesz do rozbudowy lub naprawy komputera AT. Na rysunkach 24.11 i 24.12 ukazane zostało rozmieszczenie poszczególnych komponentów na dwóch różnych płytach głównych komputerów AT.
Wstęp do XT Model 286 9 września 1986 r. IBM zaprezentował nowy komputer AT, umieszczony w obudowie XT. XT Model 286 posiadał więcej pamięci, mikroprocesor 80286 Intela i aż trzy wewnętrzne standardy napędów. W komputerze tym połączono stosunek wydajności do kosztów komputera XT z elastycznością oraz szybkością i wydajnością technologii procesora Intel 80286. Model ten wyglądał jak XT, ale w obudowie skrywał się komputer AT. Większość aplikacji działała na komputerach IBM XT Model 286 ponad trzy razy szybciej, niż na wcześniejszych modelach XT. Komputer ten standardowo posiadał
640 kB pamięci. Dzięki wielu opcjonalnym kartom rozszerzeń możliwe było zamontowanie na tych komputerach 16 MB pamięci.
Standardowo w komputerze znajdowała się stacja dysków 5 1/4 cala, 1,2 MB, twardy dysk 20 MB, karta kontrolera portu szeregowego/równoległego oraz rozszerzona klawiatura IBM. Opcjonalnie można było wybrać jedną z poniższych, dodatkowych wewnętrznych stacji dysków:
•
stacja dysków 3 1/2 cala, 720 kB o połowie wysokości;
•
stacja dysków 3 1/2 cala, 1,44 MB o połowie wysokości;
•
stacja dysków 5 1/4 cala, 1,2 MB o połowie wysokości;
•
stacja dysków 5 1/4 cala, 360 kB o połowie wysokości.
IBM XT Model 286 wysoką wydajność zawdzięczał przede wszystkim zastosowanej w nim płycie głównej AT, posiadającej 16-bitowe gniazda I/O, oraz taktowanemu częstotliwością 6 MHz procesorowi Intel 80286. Właśnie typ procesora, prędkość zegara oraz architektura pamięci są podstawowymi czynnikami wpływającymi na wydajność komputera. W zależności od modelu AT częstotliwość taktowania wynosiła 6 lub 8 MHz z jednym cyklem oczekiwania. XT Model 286 przetwarzał dane z częstotliwością 6 MHz, nie stosując cykli oczekiwania. Eliminacja cykli oczekiwania zwiększyła wydajność komputera dzięki zmniejszeniu czasu dostępu do pamięci i zwiększeniu szybkości przetwarzania danych. Dzięki temu XT Model 286 działał o wiele szybciej niż podobnie skonfigurowany AT, pracujący z tą samą częstotliwością. Jego prędkość można było porównywać z komputerami AT z zegarem 8 MHz. Z testów wynikało, iż komputer ten był około trzy razy szybszy od komputerów XT.
Ponieważ komputer XT Model 286 jest klasy AT, procesor był w stanie pracować zarówno w trybie rzeczywistym, jak i w chronionym. Działając w trybie rzeczywistego adresowania, procesor 80286 jest kompatybilny z 8088; dzięki temu można używać większości oprogramowania przeznaczonego dla standardowych PC. W trybie adresowania rzeczywistego komputer był w stanie obsłużyć tylko l MB pamięci. Tryb chroniony udostępniał wiele dodatkowych możliwości, dzięki którym stawała się możliwa praca wielozadaniowa. Tryb chroniony oddziela i chroni dane poszczególnych programów pracujących w środowiskach wielozadaniowych. W trybie chronionym 80286 potrafił zaadresować do 16 MB pamięci rzeczywistej oraz do l GB pamięci wirtualnej. Gdy komputer działał w tym trybie, można było na nim uruchomić zaawansowane systemy operacyjne, takie jak OS/2 czy LTNIX. Gdy XT Model 286 został wprowadzony na rynek, był najtańszym komputerem, na którym można było uruchomić prawdziwy system wielozadaniowy.
IBM XT Model 286 posiadał standardowo 640 kB pamięci RAM. Dzięki wielu opcjonalnym kartom rozszerzeń możliwe było zamontowanie na tych komputerach 16 MB pamięci, czyli dużo powyżej 640 kB limitu komputerów PC XT. W dodatku, jeśli używałeś niektórych systemów operacyjnych (jak na przykład OS/2 czy UNIX), mogłeś korzystać z jeszcze większej ilości pamięci.
Standardowym wyposażeniem tych komputerów był twardy dysk 20 MB oraz stacja dysków 5 1/4 cala, 1,2 MB. Podobną stację dysków standardowo instalowano we wszystkich modelach AT. Dzięki temu można było odczytać dyskietki zarówno sformatowane na komputerach XT Model 286, jak i AT. Stacja dysków 1,2 MB potrafiła odczytywać również dyskietki zapisywane przez komputery posiadające tylko stację 360 kB. Na rysunku 24.13 zostało ukazane wnętrze komputera XT 286. Do komputerów XT Model 286 dołączano rozszerzoną klawiaturę z diodami trybu pracy. Do wielu komputerów dołączano klawiatury rozszerzone, ale XT 286 był pierwszym komputerem, w którym dołączane klawiatury posiadały diody trybu pracy.
W pięciu gniazdach rozszerzeń można było umieszczać zaawansowane, 16- lub 8bitowe karty; trzy gniazda obsługiwały tylko karty 8-bitowe. W dwóch z trzech 8bitowych gniazd można było umieszczać tylko krótkie karty.
Standardową cechą komputera XT Model 286 była karta kontrolera twardego dysku i stacji dysków. Ta wielofunkcyjna karta zajmowała tylko jedno 16-bitowe gniazdo rozszerzeń, a obsługiwała aż cztery napędy (dwie stacje dysków i dwa twarde dyski).
Kontroler portu szeregowego/równoległego, inna standardowa cecha tych komputerów, jest łączoną kartą zajmującą tylko jedno gniazdo (obu typów) i udostępniającą port szeregowy i równoległy. Do portu równoległego można było podłączać urządzenia wysyłające 8-bitowe dane, takim urządzeniem jest na przykład drukarka. W pełni programowalny, asynchroniczny port szeregowy umożliwiał przesyłanie danych z prędkością od 50 do 9600 bps, choć wszystkie wyższe prędkości wymagały odpowiedniego oprogramowania. Do kontrolera należało podłączyć opcjonalny kabel lub złącze. Po podłączeniu kabla lub złącza udostępniane są wszystkie sygnały zgodne z interfejsem EIA RS-232C. Do portu szeregowego możesz podłączyć między innymi modem, mysz, kabel łączący z innym komputerem, a także wiele innych urządzeń. Komputer XT potrafi obsłużyć aż dwa kontrolery portu szeregowego/równoległego.
Rysunek 24.13.
Standardowe komputery XT Model 286 posiadały następujące cechy:
•
procesor 80286 taktowany zegarem 6 MHz, bez cykli oczekiwania;
•
640 kB pamięci na płycie głównej;
•
stację dysków 1,2 MB;
•
20 MB twardy dysk;
•
pięć 16-bitowych i trzy 8-bitowe gniazda rozszerzeń;
•
kontroler twardego dysku i stacji dysków (zajmujący jedno 16-bitowe gniazdo rozszerzeń);
•
kontroler portu szeregowego/równoległego (zajmujący jedno 16-bitowe gniazdo rozszerzeń);
•
rozszerzoną, 101-klawiszową klawiaturę z diodami trybu pracy;
•
umieszczony w CMOS podtrzymywany bateryjnie zegar czasu rzeczywistego.
Komputera XT 286 i ich cechy Procesor komputera XT Model 286 jest trzy razy szybszy od innych procesorów rodziny XT i o około 25 procent szybszy niż procesor stosowany w komputerach AT Model 239 (w zależności od aplikacji). Standardowym wyposażeniem komputerów XT Model 286 był 20 MB twardy dysk oraz stacja dysków 5 1/4 cala, 1,2 MB. Dodatkowa wewnętrzna stacja dysków może zostać zainstalowana jako napęd B:. Jako napęd B: może zostać zainstalowany jakikolwiek typ stacji dysków, łącznie z
wersjami o podwójnej i wysokiej gęstości. Chcąc mieć możliwość odczytu standardowych dyskietek 5 1/4 cala zapisanych dla XT Model 286 na innym komputerze, można było dokupić stację dysków 5 1/4 cala, 360 kB. Dzięki temu uzyskiwało się pełną kompatybilność z tymi komputerami. Było to spowodowane tym, iż stacja dysków 1,2 MB nagrywa węższe ścieżki danych niż stacje 360 kB i nie jest w stanie poprawnie zastąpić informacji, które zostały wcześniej zapisane na dyskietce przez stację 360 kB. Jeśli pełna kompatybilność zapisu i odczytu nie była istotna, można było dokupić drugą stację wysokiej gęstości, 1,2 MB.
Dodać można było jakąkolwiek stację 3 1/2 cala, łącznie z wersjami o pojemności 720 kB i 1,44 MB. Ponieważ stacja dysków 1,44 MB jest w stanie poprawnie zarówno odczytać, jak i zapisać dyskietki w formacie 720 kB, celowe byłoby zaopatrzyć się raczej w nią, niż w stację 720 kB. Stacje dysków 1,44 MB są niedużo droższe od stacji 720 kB, a oferują dwukrotnie większą pojemność. Wiele osób nie wie, że w BlOS-ie komputera XT Model 286 przewidziano pełną obsługę stacji dysków l,44 MB. Niestety, ponieważ IBM nigdy nie oferował stacji 1,44 MB jako wyposażenia dodatkowego, program Setup nie umożliwia jej wybrania. W związku z tym, trzeba użyć jednego z wielu dostępnych programów public domain konfigurujących komputery AT. Innym wyjściem jest „ukradniecie" takiego programu z jednego z komputerów kompatybilnych z AT.
Specyfikacja techniczna komputerów XT Model 286 W poniższej części zostały zawarte dane techniczne komputerów osobistych XT Model 286. Znajdziesz tu informacje o architekturze systemu, konfiguracjach i pojemności pamięci, standardowych cechach komputera, napędach dyskowych, gniazdach rozszerzeń, specyfikacji klawiatury, a także specyfikacjach fizycznych i środowiskowych. Ten rodzaj informacji może być bardzo użyteczny przy określaniu, jakich części potrzebujesz do rozbudowy lub naprawy komputera. Na rysunku 24.14 ukazane zostało rozmieszczenie poszczególnych komponentów na płycie głównej komputera XT Model 286.
Rysunek 24.14
Rozdział 25.
Podsumowanie W książce zostały opisane składniki komputerów kompatybilnych z PC. Czytając ją, odkrywasz, w jaki sposób pracują i współdziałają ze sobą poszczególne elementy komputera, uczysz się, jak powinny zostać skonfigurowane i zainstalowane. Dowiadujesz się, kiedy może dojść do uszkodzenia części i jakie są tego objawy. Poznajesz sposoby diagnostyki i rozwiązywania błędów, dzięki czemu możesz zlokalizować i wymienić uszkodzone elementy. Uzyskujesz również informacje o uaktualnieniach komponentów, o tym, jakie uaktualnienia są dostępne, jakie korzyści płyną z ich zainstalowania, a także w jaki sposób je zdobyć i zainstalować. Ponieważ uszkodzone elementy często są już technicznie przestarzałe, może zajść konieczność połączenia naprawy z uaktualnieniem i wymiany uszkodzonej części na uaktualnioną lub oferującą lepszą wydajność.
Informacje, które zawarłem w tej książce, są wynikiem wielu lat obcowania z komputerami kompatybilnymi z PC. Każdy z rozdziałów powstał na drodze połączenia wielu badań i dociekań. Dzięki zawartym tu informacjom firmy zaoszczędziły tysiące dolarów. Czytając tę książkę, także korzystasz z zawartych w niej informacji i również możesz zaoszczędzić czas swój i firmy, a co ważniejsze, pieniądze!
Wykonywanie napraw i uaktualnień komputerów w miejscu pracy to jeden z najlepszych sposobów zaoszczędzenia pieniędzy. Wyeliminowanie większości przypadków konieczności korzystania z serwisu i skrócenie czasu, podczas którego nie można korzystać z komputera, to tylko dwie z wielu korzyści wynikających z zastosowania znajdujących się w tej książce informacji. Jak już wiele razy pisałem, możesz również zaoszczędzić pieniądze, kupując sprzęt bezpośrednio u producenta i unikając dzięki temu pośredników.
Znajdująca się w dodatku A lista producentów jest najlepszym źródłem umożliwiającym nawiązanie z nimi kontaktu. Jeśli zamierzasz produkować swoje własne komputery, lista producentów bardzo Ci się przyda, gdyż znajdziesz w niej adresy firm produkujących komponenty niezbędne do składania komputerów - od śrubek i zaślepek aż do obudów, zasilaczy i płyt głównych. Myślę, że ta lista jest najczęściej wykorzystywanym fragmentem książki. Wielu ludzi nie potrafiło dokonać bezpośrednich zakupów u producentów, ponieważ takie zakupy wymagają nowego poziomu zrozumienia powiązań między elementami komputera. Mam nadzieję, że przeczytanie tej książki dostarczyło Ci wystarczającej wiedzy i doświadczenia, byś mógł kupować części bezpośrednio u producentów, oszczędzając z czasem wiele pieniędzy.
Aby uzyskać zawarte w tej książce informacje, korzystałem z wielu źródeł, poczynając od moich własnych doświadczeń. Zawarte tu informacje przekazywałem również podczas seminariów organizowanych w ciągu ostatnich 15 lat przez moją firmę, Mueller Technical Research. Podczas tych seminariów często pytano mnie, skąd można uzyskać więcej informacji tego typu oraz czy mam jakieś „sekretne sposoby" zdobywania tej wiedzy. Cóż, nie chcę mieć żadnych sekretów. Tylko dzięki czterem źródłom informacji Ty również możesz zostać ekspertem w dziedzinie uaktualniania i naprawy komputerów PC. Tymi źródłami są: •
4 podręczniki,
•
4 modemy,
•
4 urządzenia,
•
4 czasopisma.
•
J ręczniki
Podręczniki Podręczniki są jednym z najważniejszych źródeł informacji o komputerze. Niestety, podręczniki są również jednym z najczęściej przeoczanych źródeł. Wiele mojej wiedzy pochodzi z zagłębiania się w informacje techniczne znajdujące się w dostarczanych wraz ze sprzętem podręcznikach. Nigdy nie kupiłbym komputera, do którego nie byłby dołączony podręcznik zawierający szczegółowe dane techniczne. Twierdzenie to odnosi się również do każdej części komputerowej - czy jest to stacja dysków, twardy dysk, zasilacz, płyta główna czy też karta pamięci. Muszę posiadać szczegółowy podręcznik, który powinien pomóc mi dowiedzieć się, czy i jakie są możliwości późniejszych uaktualnień oraz jakie wsparcie dla danego produktu oferuje jego producent. W podręczniku powinienem również odnaleźć informacje, w jaki sposób prawidłowo zainstalować dane urządzenie oraz w jaki sposób mam je użytkować. Często zdarza się, że podręczniki można otrzymać jako OEM do kupionego sprzętu, ponieważ sprzedający lub odsprzedający ich nie posiada. Jeśli jest to możliwe, powinieneś spróbować zorientować się, kto jest prawdziwym producentem każdej części OEM, a następnie spróbować uzyskać od niego dokumentację na temat danego produktu czy części.
Więksi producenci, jak na przykład Intel, IBM, Compaq, czy Hewlett Packard. nie tylko produkują swoje części, ale i zaopatrują się w nie z innych źródeł. Wielu z tych producentów -jak na przykład IBM - tworzy również kompletną dokumentację techniczną swoich produktów, dostępną dla wszystkich zainteresowanych. Dokumenty te są szczegółowe, ale niestety często również drogie. Bardzo dobrze i szczegółowo opisano w nich operacje CPU, pamięć, magistrale oraz inne elementy architektury komputerów. Informacje zawarte w tych dokumentach można odnieść również do komputerów kompatybilnych, ponieważ większość ich elementów musi być kompatybilna z IBM. Inaczej mówiąc, dokumentacja IBM może być przydatna nawet komuś, kto nie posiada wyprodukowanego przez tę firmę komputera.
Inne firmy (jak na przykład Compaq i HP) również posiadają szczegółową dokumentację swych produktów. IBM, HP oraz Compaq udostępniają te dokumenty w bardzo wygodnej i łatwej do przeszukiwania wersji na CD-ROM-ie. Na płytach CD zostały zawarte szczegółowe informacje o produkowanych przez te firmy komputerach PC. Firmy takie jak IBM, Compaq oraz HP posiadają swoje własne BBS-y udostępniające pomoc techniczną. Telefony do BBS-ów firm oraz adresy ich stron WWW znajdziesz na liście producentów.
Znaczenie podręczników oraz innych źródeł zawierających informacje o sposobach naprawy i obsługi danego urządzenia możesz w łatwy sposób sobie uświadomić, przeprowadzając prostą analogię. Porównaj swoją firmę używającą komputerów do firmy przewożącej ludzi. Taka firma musi zakupić samochody, by używać ich jako taksówek. Jej właściciele nie kupują jednego, lecz wiele samochodów. Jak myślisz, czy kupiliby większą ilość samochodów tylko na podstawie ich solidności, osiągów czy też statystyki zużywanego paliwa? Czy zlekceważyliby możliwość posiadania w pobliżu firmy serwisu tych samochodów? Czy kupiliby wiele samochodów, które mogłyby być serwisowane tylko przez producenta, samochody, których części są trudne do zdobycia? Jak myślisz, czy kupiliby samochód, do którego nie został dołączony szczegółowy podręcznik serwisowania i naprawy? Czy kupiliby pojazd, do którego brakuje części i który jest obsługiwany przez nieliczną sieć dealerów z niewielkim serwisem, przez co długo trzeba czekać na jakąkolwiek część i nieuchronny serwis? Odpowiedź na te wszystkie pytania to (oczywiście) nie, nie i nie!
Już chyba wiesz, dlaczego większość firm przewożących ludzi, a także policja, używa „standardowych" samochodów, takich jak Chevrolet Caprice czy też Ford Crown Yictoria (oczywiście w USA - przyp. tłum.). Jeśli kiedykolwiek byłaby mowa o „standardowych" samochodach, te z pewnością by się do nich zakwalifikowały! Dealerów, części oraz dokumentację tych modeli można odnaleźć wszędzie. Części tych aut są stosowane również w innych samochodach, co ułatwia ich utrzymanie i naprawy.
Czy twoja firma (szczególnie jeśli jest duża) używa wielu komputerów? Jeśli tak, porównaj te wszystkie komputery do samochodów firmy przewożącej ludzi -jeśli jej taksówki nie będą jeździć bezpiecznie i niedrogo, szybko wypadnie z interesu. Teraz już wiesz, dlaczego samochód Checker Marathon jest tak popularny wśród taksówkarzy: jego projekt niewiele się zmienił od 1956 r., gdy po raz pierwszy został zaprezentowany, aż do lipca 1982 r., gdy zaprzestano jego produkcji. (Według ostatnich danych tylko jeden z nich nadal był w rejestrach serwisów w Nowym Yorku!)
Standard komputerów kompatybilnych z XT i AT na wiele sposobów przypomina szacowny samochód Checker Marathon. Bardzo łatwo możesz zdobyć informacje techniczne o tych komputerach. Części i uaktualnienia możesz zdobyć z tak wielu źródeł, że wszystko, co tylko może być Ci potrzebne, jest zawsze dostępne i to po
obniżonych cenach. Nie chcę jednak, byś myślał, iż twierdzę, że powinieneś stosować się do standardów, używając starszych modeli komputerów XT i AT. Dobrym pomysłem jest natomiast posiadanie komputera bazującego na tych samych rozwiązaniach, co standardowe komputery, ale posiadającego nowsze elementy. Dzięki temu komputer jest całkowicie nowoczesny w sferze wydajności i możliwości, a dodatkowo, łatwo jest uzyskać dla niego wsparcie, łatwo go naprawić czy też dokonać jego aktualizacji.
To niezwykłe, iż ludzie kupują komputery nie posiadające dokumentacji technicznej oraz zapasowych programów czy też komputery, których części można kupić tylko poprzez dealera. W każdej firmie możliwości uaktualniania, naprawy oraz utrzymania sprzętu powinny mieć większy priorytet niż jego wydajność i wygląd.
Poza dodawanymi do komputerów podręcznikami OEM lubię też gromadzić dokumentację innych producentów, wytwarzających części używane w większości komputerów. Na przykład ostatnio pracowałem na komputerach Gateway 2000 oraz Hewlett Packard i w obu były zamontowane stacje dysków firmy Epson. Ponieważ dokumentacja OEM tych komputerów nie zawierała szczegółowych informacji o stacjach dysków Epsona, skontaktowałem się z tą firmą i zamówiłem podręczniki zawierające specyfikację techniczną tych stacji. Zamówiłem również podręczniki zawierające specyfikację techniczną kilku innych stacji dysków używanych w tych komputerach, łącznie z twardymi dyskami Western Digital i Quantum. Dzięki temu posiadam szczegółowe informacje o tych napędach, zawierające ustawienia zworek, informacje, w jaki sposób serwisować i naprawiać te urządzenia, oraz inne, nigdzie indziej nie przedstawiane dane techniczne.
Zalecam, byś dokonał spisu wszystkich najważniejszych komponentów komputera pod względem producenta i numeru modelu. Jeśli nie posiadasz specyfikacji lub podręczników zawierających informacje techniczne o tych komponentach, zapytaj o nie producentów (pomoże Ci w tym lista producentów umieszczona w dodatku A). Będziesz zaskoczony bogactwem informacji, które możesz uzyskać.
Jeśli poszukujesz informacji o elektronice i układach komponentów komputera, skontaktuj się z producentami danych urządzeń i zdobądź ich książki danych. Intel na przykład udostępnia wiele informacji o swoich procesorach, chipsetach płyt głównych, kościach kontrolerów cache oraz innych produkowanych przez niego układach. Inni producenci chipsetów posiadają książki danych o swoich układach, z których możesz dowiedzieć się wszystkiego na temat tajemniczych ustawień, które widzisz po uruchomieniu zawartego w CMOS programu Setup. Większość producentów BIOS-ów również tworzy dokumentację specyficzną dla danej wersji BIOS-u. Sprawdź listę firm umieszczoną w dodatku A, by uzyskać adresy producentów elementów twojego komputera, a następnie skontaktuj się z nimi, by zobaczyć jaką dokumentację udostępniają.
Urządzenia Pisząc urządzenia, mam na myśli karty rozszerzeń i inne elementy, stanowiące w sumie komputer. Urządzenia są jednym z moich najlepszych źródeł informacji. Na przykład wyobraź sobie, że mam odpowiedzieć na pytanie - czy kontroler SCSI XYZ obsługuje stację napędów taśmowych ABC? Najprostszą metodą uzyskania odpowiedzi jest po prostu włożenie wszystkiego do komputera i naciśnięcie przełącznika. (Łatwo się mówi, ot co).
Poważniej, eksperymentowanie i obserwowanie działających komputerów jest jednym z najlepszych sposobów uczenia się, jakie tylko masz do dyspozycji. Zalecam, byś próbował wszystkiego; bardzo rzadko się zdarza, by podczas takich prób doszło do uszkodzenia sprzętu. Ale oczywiście coś takiego może się wydarzyć, więc dobrze by było, gdybyś przed każdą próbą zabezpieczał swe dane. Do eksperymentów nie powinieneś używać komputera, na którym pracujesz na co dzień; jeśli to tylko możliwe, użyj innego. Ludzie czasem niechętnie podchodzą do eksperymentów z drogimi przecież komputerami, ale podczas bezpośrednich testów i obserwowania systemów można się naprawdę wiele nauczyć. Gdy zainstaluję jakiś produkt i uruchomię kilka testów, często okazuje się, że dostarczone przez producenta informacje są po prostu mylące. Jeśli nie jesteś pewien, czy coś rzeczywiście działa, upewnij się, czy gwarancja producenta umożliwia zwrot sprzętu i odzyskanie pieniędzy, jeśli sprzęt nie spełni twoich oczekiwań.
Informatycy pracujący w dużych firmach mają dostęp do ilości programów i sprzętu, o jakiej ja mogę tylko pomarzyć. Niektóre większe firmy posiadaj ą sklepy z zabawkami, w których regularnie kupują ekwipunek przeznaczony tylko do testów i oceny. Dealerzy i producenci również posiadają dostęp do olbrzymiej ilości różnorodnego sprzętu. Jeśli pracujesz na takim stanowisku, korzystaj z dostępu do ekwipunku i zdobywaj wiedzę z tego źródła. Gdy tylko zostanie zakupiony nowy komputer, zrób notatki o jego konstrukcji i elementach.
Za każdym razem gdy napotkam komputer, na którym jeszcze nie pracowałem, natychmiast otwieram go i zaczynam robić notatki. Chcę znać producenta i model każdego wewnętrznego elementu - stacji dysków, zasilacza, płyty głównej. Jeśli nie znam wykorzystanej w komputerze płyty głównej, zapisuję numery umieszczonych na niej podstawowych układów IC, czyli na przykład procesora, zintegrowanego chipsetu, kości kontrolera dyskietek, kości kontrolera klawiatury, chipsetu karty graficznej oraz innych ważniejszych kości na płycie. Wiedząc jakie układy zostały zastosowane w komputerze, często możesz zorientować się o jego dodatkowych możliwościach, jak na przykład rozszerzonym programie Setup czy też możliwościach konfiguracji.
Lubię wiedzieć, jaka wersja BIOS-u znajduje się w komputerze i zawsze tworzę jego kopię na dyskietce. Traktuję ją jako kopię bezpieczeństwa, a zarazem dobry materiał do dalszych studiów nad komputerem. Chcę znać umieszczone w BlOS-ie tablice
twardych dysków oraz inne szczególne wymagania ustawiania i instalacji systemu. Zapisuję, jaki typ baterii znajduje się w komputerze, dzięki czemu mogę zaopatrzyć się w baterię zapasową. Zaznaczam sobie, czy w konstrukcji komputera zastosowano jakieś unikalne zaczepy lub rozwiązania (na przykład śruby imbusowe), dzięki czemu mogę się odpowiednio przygotować, jeśli w przyszłości zajdzie potrzeba serwisowania komputera. Istnieją programy przeznaczone do pomocy w utrzymaniu inwentarza komputerów i sprzętu, ale zawsze okazywało się, że nie umożliwiały przechowywania potrzebnych mi szczegółowych informacji. »
Tak oto dotarłem do swego ulubionego konika. Nic nie jest w stanie zirytować mnie bardziej, niż zamieszczane w ważnych czasopismach opisy komputerów, w których przedstawiane są wyniki testów, powiedzmy, wydajności twardego dysku i karty graficznej. Ale testujący nie otwierają komputerów i nie mówią mi (i całemu światu), jakie części zostały zastosowane w tych komputerach! Chcę dokładnie wiedzieć, jaki kontroler twardego dysku, twardy dysk, karta graficzna, BIOS itd., zostały zastosowane przy budowie testowanych komputerów. Inaczej wszystkie prezentowane w teście informacje są dla mnie po prostu bezużyteczne.
Później testujący wykonują testy wydajności twardych dysków komputerów z takimi samymi napędami i kontrolerami, a następnie (bez żadnych oporów) twierdzą, że jeden z nich działał o kilka milisekund szybciej od drugiego i zwyciężył w teście. Jest po prostu oczywiste, że występują drobne różnice w osiągach pojedynczych kontrolerów takiego samego typu i uzyskane wyniki po prostu nie mają najmniejszego znaczenia. Powinieneś być bardzo ostrożny, jeśli chodzi o wyniki testów zamieszczanych w zwykłych czasopismach. Jeśli testujący napiszą, jakie elementy testowali, będę mógł wyciągnąć własne wnioski i nawet porównać otrzymane wyniki z wynikami innych komputerów, niekoniecznie uwzględnionych w teście.
Modemy Modemy służą do zdobywania ogólno dostępnych i prywatnych informacji oraz korzystania z usług online. Dzięki modemowi możesz korzystać zarówno z lokalnych BBS-ów (Buletin Board Systems], jak i dużych sieci informacji, takich jak CompuServe czy też internetowe strony WWW (Word W idę Web}. Wiele firm oferujących oprogramowanie lub sprzęt umożliwia uzyskanie poprzez Internet pomocy technicznej, a czasem nawet uaktualnień swych produktów. Sieci ogólnodostępne, takie jak Internet, CompuServe oraz BBS-y, sprzyjają tworzeniu się organizacji złożonych z techników i entuzjastów komputerów. Dzięki temu poprzez modem możesz poprosić o radę ludzi doskonale znających się zarówno na oprogramowaniu, jak i sprzęcie. Dzięki BBS-om możesz zarówno uzyskać rady, jak i zaopatrzyć się w doskonałe oprogramowanie, które może znacząco ułatwić Ci pracę. Czeka na Ciebie świat oprogramowania public domain oraz więcej wiedzy technicznej i doświadczeń, niż mogłeś sobie wyobrazić.
W dodatku A znajdują się nie tylko adresy, nazwy i telefony firm, ale również (jeśli tylko były dostępne) adresy firm w Internecie oraz numery ich BBS-ów. Jeśli potrzebujesz pomocy technicznej lub większej ilości informacji o danej firmie, spróbuj wykorzystać usługi online. Wiele firm prowadzi serwisy online, dzięki czemu możesz w łatwiejszy sposób zaopatrzyć się w uaktualnione oprogramowanie czy też sterowniki. Prowadzenie przez firmę usług online jest dla mnie ważną pozycją, czasem nawet decydującą o zakupie danego produktu. Dzięki usługom online zaoszczędziłem wiele czasu i pieniędzy.
Większość firm udostępnia usługi online raczej poprzez sieci ogólnodostępne (jak Internet czy CompuServe), niż BBS-y. Compuserve Information Sennce (CIS) jest ogólnodostępną siecią informacji, do której możesz włączyć się za pomocą telefonu z jakiegokolwiek miejsca na świecie, logując się na jeden z jej serwerów (umieszczonych w Ohio). Wśród zasobów CompuServe znajdują się grupy dyskusyjne, sponsorowane lub odwiedzane przez większość najważniejszych firm oraz wszelkiego rodzaju entuzjastów. Poprzez CompuServe możesz uzyskać dostęp do Internetu, łącznie z możliwością przeglądania internetowych stron WWW. CompuServe lub inni dostawcy Internetu mogą znacznie zwiększyć Twoje możliwości zdobywania wiedzy z innych źródeł.
Prawdę mówiąc, najpewniejszym i najszybszym sposobem skontaktowania się ze mną jest poczta elektroniczna CompuServe. Mój numer CompuServe ID to 73145,1566 (w Internecie jest to [email protected]). Jeśli masz jakiekolwiek pytania, chciałbyś przesłać komentarz czy też posiadasz użyteczne informacje, które mogłyby mnie zainteresować, jeśli tylko zechcesz, wyślij mi wiadomość. Ponieważ odpowiedź
na zwykłą pocztę wymaga wykonania wielu czynności i zabiera wiele czasu, wysiane do mnie zwykłe listy często długo oczekują nawet na przeczytanie, a co dopiero na odpowiedź. Zupełnie inaczej jest z pocztą elektroniczną, która ma dla mnie o wiele większy priorytet, a wysłanie odpowiedzi na nią zabiera mi o wiele mniej czasu. Jeśli jednak wysyłasz do mnie zwykły list i chciałbyś, bym Ci odpowiedział, nie zapomnij dołączyć do niego zaadresowanej koperty zwrotnej ze znaczkiem.
Czasopisma Ostatnie źródło informacji, czasopisma, jest jednym z najlepszych źródeł przeglądów i danych technicznych. W czasopismach można odnaleźć informacje o poprawkach błędów, ostrzeżenia o problemach oraz dane o nowinkach sprzętowych. Niezwykle trudne i chyba nawet niemożliwe jest wydawanie drukowanego czasopisma zawierającego aktualne informacje o najnowszych wydarzeniach w przemyśle komputerowym. Pomysły zmieniają się zbyt szybko, by tak wydawane czasopismo mogło dotrzymać im kroku. Prenumeruję większość najważniejszych czasopism o tematyce komputerowej i często odczuwam naciski, by wskazać jedno z nich jako najlepsze. Nie mogę jednak tego dokonać, ponieważ one wszystkie są dla mnie ważne, gdyż w każdym z nich odnajduję inne informacje, a nawet jeśli informacje się
pokrywają, to często autorzy artykułów komentują je z innych punktów widzenia. Dzięki czasopismom mogę przynajmniej usłyszeć o produktach, które dotąd były mi nieznane, choć prawdę mówiąc, zawarte w czasopismach przeglądy sprzętu często nie są dla mnie wystarczające. Większość czasopism komputerowych dostępna jest również na płytach CD, co bardzo upraszcza gorączkowe poszukiwania informacji, o których pamiętasz, że gdzieś tu je już czytałeś. Jeśli wersja na płycie CD to zbyt wiele jak na Twoje potrzeby, przydatną dla Ciebie informacją może być to, że za pomocą Internetu możesz uzyskać dostęp do większości ważnych czasopism. Ta możliwość jest bardzo przydatna, gdy chcesz odnaleźć jak najwięcej informacji na określony temat.
Jedną z najlepiej ukrytych tajemnic przemysłu komputerowego jest istnienie doskonałych branżowych czasopism oferujących darmową subskrypcję. Choć wiele z tych czasopism jest adresowanych do hurtowni lub technicznego końca produkcji, uważam, że warto je prenumerować. Niektóre z moich ulubionych czasopism to: •
Computer Design
•
Electronic News
•
Computer Hotline
•
Electronic Products
•
Computer Reseller News
•
*Processor
•
Electronic Design News
•
Test and Measurement World
•
Electronic Engineering Limes
Te czasopisma oferują darmową subskrypcję wszystkim wykwalifikowanym osobom. Ponieważ są one przeznaczone dla ludzi z przemysłu komputerowego i elektronicznego, zawierają znacznie więcej szczegółowych danych technicznych, niż bardziej znane czasopisma „publiczne".
Spis treści O autorze Wstęp
•
Główne cele książki
•
Dla kogo jest ta książka
•
Co znajdziesz w tej książce? o
CD-ROM sprzedawany wraz z książką
Rozdział 1. Historia komputera osobistego
•
Pierwsze komputery i ich dzieje
•
Komputer osobisty IBM
•
Rynek komputerem osobistych po 17 latach
Rozdział 2. Omówienie systemu komputerowego
•
Co to jest komputer PC o
Kto posiada kontrole nad oprogramowaniem komputerów PC?
o
Kto wyucza nowe rozwiązania w sprzęcie komputerów PC?
o
Specyfikacja PC 9x
•
Typy komputerów
•
Dokumentacja
•
o
Podstawowa dokumentacja - Podręcznik użytkownika
o
Dokumentacja podzespołów i urządzeń zewnętrznych
o
Dokumentacja chipsetów
o
Dokumentacja producenta komputera
Gwarancja i umowa serwisowa
Rozdział 3. Demontaż i konserwacja komputera •
•
Właściwe narzędzia o
Podręczne narzędzia
o
Lutowanie
Przyrządy testowe o
Wtyczki pętIowe (Loopback Connectors)
o
Mierniki
o
Próbniki logiczne i impulsatory logiczne
o
Testery gniazd
o
Testery pamięci
•
Środki chemiczne
•
Śrubki, nakrętki i inne drobiazgi
•
System calowy i metryczny
•
.lak zdemontować komputer o
Przygotowanie
o
Demontaż komputera
o
Instalacja płyty głównej
•
Czynności diagnostyczne i archiwizacja danych
•
Konserwacja komputera o
Procedury aktywnej konserwacji
o
Kopie zapasowe systemu
o
Konserwacja twardego dysku
o
Procedury konserwacji biernej
Rozdział 4. Płyty główne •
Wymiana płyty głównej na nowszą
•
Czym należy się kierować przy zakupie płyty głównej
•
Dokumentacja
•
Kompatybilność układów ROM BIOS pochodzących od różnych producentów
•
Niezależni producenci płyt głównych (OEMs) o
AMI
o
Award
o
Phoenix
•
Synchronizacja częstotliwości podzespołów komputera
•
Format płyty głównej o
Płyty główne w formacie Backplane
o
“Pełnowymiarowa Płyta AT" (ang. Full-Size AT)
o
Baby-AT
o
LPX
o
ATX
o
NLX
o
Rozwiązania firmowe
•
Złącza na płycie głównej
•
Zawartość pamięci CMOS RAM
Rozdział 5. Gniazda i karty rozszerzające •
Czym jest magistrala o
Magistrala procesora
o
Magistrala pamięciowa
o
Magistrala adresowa
•
Zastosowania gniazd rozszerzających
•
Arbitraż magistrali (bus mastering)
•
Typy magistrali zewnętrznej
•
•
•
•
o
Magistrala ISA
o
Magistrala Micro Channel
o
Magistrala EISA
o
Automatyczne konfigurowanie
o
Magistrale lokalne
o
AGP (Accelerated Graphics Port)
Zasoby komputera o
Przerwania (IRQ)
o
Kanały DMA
o
Adresy portów I/konfliktów
Rozwiązywanie konfliktów w dostępie do zasobów o
Ręczne rozwiązywanie konfliktów
o
Wykorzystanie szablonu konfiguracji sprzętowej
Rozwiązywanie problemów z kartami specjalizowanymi o
Karty dźwiękowe
o
Karty adapterów SCSI
o
Karty sieciowe
o
Karty portów szeregowych
o
USB (Universal Serial Bus
o
Inne karty
Komputery Plug and Play o
Sprzęt PnP
o
BlOS PnP
o
System operacyjny PnP
Rozdział 6. Mikroprocesory i chipsety płyt głównych •
Parametry procesorów o
Szybkość procesora
o
Magistrala danych
o
Rejestry wewnętrzne Magistrala adresowa
o
Wewnętrzna (level 1) pamięć podręczna
o
Tryby pracy procesorów
o
Technologie stosowane w dzisiejszych procesorach
o
Wytwarzanie procesorów
o
Obudowy procesorów
o
Napięcia zasilania procesorów
o
Ciepło i problemy z jego odprowadzaniem
•
Koprocesory arytmetyczne
•
Błędy w procesorach o
Wymiana procesora
•
Nazwy kodowe procesorów Inlet
•
Układy kompatybilne z procesorami Inlet
•
•
o
Procesory AMD
o
Procesory Cyrix
o
IDT Winchip
Typy procesorów o
P1 (086) Procesory pierwszej generacji
o
P2 (286) Procesory drugiej generacji
o
P3 (386) Procesor) trzeciej generacji
o
P4 (486) Procesor) czwartej generacji
o
P5 (586) Procesory piątej generacji
o
Procesory pseudopiątej generacji
o
P6 (686) Procesor) szóstej generacji
o
Procesor) pseudoszóstej generacji
o
Procesory siódmej generacji P7 (786)
Uaktualnienie procesora o
Procesory i gniazda OverDrive
•
Testy wydajności procesora
•
Chipsety o
Chipsety Intela
o
Wczesne chipsety Intela dla 386/486
o
Chipsety piątej generacji (Klasy P5 Pentium)
o
Chipsety klasy P5 Pentium producentów niezależnych
o
Chipsety szóstej generacji (klas) P6 Pentium Pro/Pentium II)
o
Chipsety klasy P6 producentów niezależnych
Rozdział 7. Pamięć
•
Podstawowe wiadomości o pamięci
•
Typy pamięci
•
•
o
ROM
o
Odwzorowywane pamięci ROM [Mask ROM]
o
PROM
o
FPROM
o
EEPROM/Flash ROM
o
DRAM
Szybkość pamięci o
lFPM (Fast Page Mode) DRAM
o
EDO RAM
o
BurstFDO
o
SDRAM
Przyszłe technologie pamięci DRAM o
RDRAM
o
DDR SDRAM
•
Pamięć podręczna – SRAM
•
Fizyczna pamięć komputera
•
•
•
o
Rozkład końcówek modułów SIGM
o
Zorganizowanie oraz pojemności pamięci RAM
o
Banki pamięci
o
Czas dostępu układów pamięci RAM
o
Złoto i cyna
Niezawodność pamięci o
Kontrola parzystości
o
ECC (Kod korekcji błędów)
Rozszerzanie pamięci komputera o
Możliwe strategie rozszerzania pamięci
o
Wybór i instalacja pojedynczych układów pamięci oraz modułów SIMM i DIMM
o
Zastępowanie modułów SIMM i DIMM modularni o większej pojemności
o
Karty rozszerzające pamięć
o
Instalowanie pamięci w komputerze
Organizacja logiczna pamięci komputera o
Pamięć podstawowa
o
Pamięć górna (ang. Upper Memory Area. UMA)
o
Pamięć powyżej pierwszego megabajta (ang. extended memory)
o
Pamięć XMS
o
Obszar pamięci "wysokiej" (ang. High Memory Area - HMA) i linia adresowa A20 procesora 286
o
Pamięć EMS (expanded memory - FMS)
o
Zapobieganie konfliktom i nakładaniu się obszarów pamięci ROM BIOS
o
Przepisanie zawartości pamięci ROM do RAM (shadow ROM)
o
Całkowity rozmiar pamięci komputera a pamięć dostępna dla programów
o
Konfigurowanie i optymalizacja pamięci kart rozszerzających
o
Instalacja w komputerze nowszej wersji ROM BIOS
Rozdział 8. Zasilacze
•
Rola zasilacza w komputerze i jego działanie o
Standardowe rodzaje zasilaczy
o
Złącza rozprowadzające zasilanie w komputerze
o
Sygnał Power_Goud
o
Obciążenie zasilacza PC
o
Wartości napięć, prądów i mocy zasilacz
o
Parametry zasilacza
o
Certyfikaty na zasilanie
o
Obliczanie poboru mocy komputera
•
Pozostawić komputer włączony czy wyłączyć go?
•
Zarządzanie energią o
Komputery Energy Star
o
Zaawansowane zarządzanie energią(APM)
•
Problemy z zasilaczem
•
Rozwiązywanie problemów z zasilaczem o
Multimetry cyfrowe
o
Specjalistyczne przyrządy testowe
•
Naprawa zasilacza
•
Wymiana zasilacza w komputerze
•
o
Wybór zasilacza
o
Gdzie można zdobyć nowy zasilacz?
Systemy zabezpieczające zasilanie o
Dławiki
o
Dławiki zabezpieczające linię telefoniczną
o
Urządzenia formujące napięcie
o
Zasilacze awaryjne
•
Baterie RTC/NVRAM
Rozdział 9. Urządzenia wejściowe
•
•
•
Klawiatura o
Rodzaje klawiatury
o
Technologia wykonania klawiatury
o
Rozwiązywanie problemów z klawiaturą i jej naprawa
o
Dodatkowe publikacje
Mysz o
Interfejs myszy
o
Rozwiązywanie problemów z niesprawną myszą
o
Mysz Microsoft IntelliMouse
o
Trackpoint II/III
o
Gilidepoint
Adapter portu gier
Rozdział 1O. Monitory i karty graficzne
•
•
•
Monitory o
Technologie budowy monitorów
o
Monochromatyczny czy kolorowy?
o
Wielkość monitora
o
Rozdzielczość monitora
o
Monitory z przeplotem i bez przeplotu
o
Pobór energii i bezpieczeństwo
o
Kryteria doboru monitora
Karty graficzne o
Przestarzałe karty graficzne
o
Standard VGA
o
Standardy VESA SVGA
o
Składniki podzespołu graficznego
o
Rodzaje pamięci stosowanej w kartach grafiki
o
Kart graficzne do zastosowań multimedialnych
o
Akceleratory grafiki 3D
Problemy z kartami graficznymi i monitorami
Rozdział 11. Porty komunikacyjne i sieci komputerowe
•
•
•
•
•
•
•
•
Porty i urządzenia komunikacyjne o
Porty szeregowe
o
Testowanie portów szeregowych
o
Porty równolegle
o
Konfigurowanie portu równoległego
Nowe typy portów o
USB(Universal Serial Bus)
o
FireWire (IEEE 1394)
Modemy synchroniczne o
Standardy modemów
o
Modemy 56 kb
o
zlecenia dotyczące modemu
ISDN (Integrated Services Digital Network) o
Usługi ISDN
o
Sprzęt ISDN
Łącza dzierżawione o
Łącza 1-1
o
Łącza T-3
Sieci telewizji kablowej (CATV) o
Modemy kablowe
o
Pasmo przenoszenia sieci kablowej
o
Bezpieczeństwo w sieciach telewizji kablowej
o
Wydajność sieci telewizji kablowej
Bezpośrednie połączenie kablowe o
Kable Null Modem
o
Oprogramowanie do bezpośredniego połączenia kablowego
Lokalne sieci komputerowe o
Podstawy sieci
o
Sprzętowe składniki sieci LAN
o
Protokóły warstwy łącza danych
o
Technologie szybkich sieci komputerowych
o
Ethernet 100 Mb/S
•
ATM
•
TCP/IP i Internet o
IPX
o
NetBEUI
Rozdział 12. Sprzęt audio
•
•
•
•
•
•
Zastosowania kart dźwiękowych o
Gry
o
Multimedia
o
Pliki dźwiękowe
o
Pliki MDI
o
Prezentacje
o
Nagrywanie
o
Adnotacje głosowe
o
Rozpoznawanie głosu
o
Konferencje
o
Odsłuchiwanie
o
Płyty kompaktowe
o
Mikser dźwięku
Pojęcia i terminy związane z kartami dźwiękowymi o
Natura dźwięku
o
Standardy gier
o
Charakterystyka częstotliwościowa
o
Próbkowanie (sampling)
o
Dźwięk 8-bitowy a dźwięk 16-bitowy
Właściwości kart muzycznych o
Złącza
o
Regulacja głośności
o
Synteza
o
Kompresja/dekompresja
o
Procesory sygnałowe o wielu zastosowaniach
o
Złącze CD-ROM
o
Sterowniki dźwiękowe
Wybór karty dźwiękowej o
Konsument czy producent?
o
Kompatybilność
o
Oprogramowanie dodatkowe
Instalowanie kart dźwiękowych o
Instalowanie karty dźwiękowej
o
Używanie wieży stereo zamiast głośników
Rozwiązywanie problemów związanych z kartą dźwiękową o
Konflikty sprzętowe
o
Inne problemy związane z kartami dźwiękowymi
o
Rozwiązywanie problemów z joystickiem
o
Inne problemy
•
Głośniki
•
Mikrofon
Rozdział 13. Stacje dyskietek
•
•
Historia rozwoju napędów dyskietek o
Elementy składowe napędu
o
Napęd głowic
o
Silnik napędowy dyskietki
o
Płytki z obwodami elektronicznymi
o
Kontroler
o
Płyta czołowa
o
Złącza
Urządzenia konfiguracje napędu o
Zworka wyboru napędu (drive select)
o
Rezystory terminujące
o
Sygnał DC
o
Czujnik rodzaju nośnika
•
Kontroler stacji dyskietek
•
Fizyczne parametry dyskietek i ich działanie
•
•
•
o
Właściwości magnetyczne dyskietki
o
Logiczna struktura dyskietki
Rodzaje napędów dyskietek o
Napęd 5,25" DD (360 kB)
o
Napęd 5,25" HD (1.2 MB)
o
Napęd 3.5" DD (720 kB)
o
Napęd 3.5" HD (1.44 MB)
o
Napęd 3.5" ED (2.88 MB)
o
Rozwiązywanie problemów związanych z zapisem w napędach 3,5" HD (1,44 MB)
Konstrukcja dyskietki o
Rodzaje dyskietek i ich parametry
o
Obsługa napędów i dyskietek
o
Lotniskowe aparaty rentgenowskie i wykrywacze metali
Instalowanie napędu
•
•
Rozpoznawanie i usuwanie problemów o
Problem nieistniejących katalogów (sygnał DC)
o
Niesymetryczny uchwyt dyskietki
Naprawa napędów dyskietek o
Czyszczenie napędów dyskietek
o
Ustawianie głowic w napędzie
•
Napędy Iomega ZIP
•
Napędy typu Floptical o
Napędy floptical o pojemności 21 MB
o
Napędy floptical LS-120 (120 MB)
Rozdział 14. Napędy dysków twardych
•
•
•
•
Definicja dysku twardego o
Miary pojemności dysków twardych
o
Budowa dysków twardych
o
Gęstość powierzchniowa
Działanie dysku twardego o
Współczesne analogie napędu dysków
o
Magnetyczny zapis danych
o
Schematy kodowania danych
o
Porównanie schematów kodowania
o
Sektory
Podstawowe składniki dysku twardego o
Talerze dysku twardego (dyski)
o
Nośnik informacji
o
Głowice odczytujaco-zapisujace
o
Konstrukcja głowicy odczytująco-zapisującej
o
Ściągacze głowic
o
Mechanizm głowic
o
Serwomechanizm osadzony
Serwomechanizm dedykowany o
Automatyczne parkowanie głowic
o
Filtry powietrza
o
Aklimatyzacja temperaturowa dysku twardego
o
Silniki napędowe talerzy
o
Pasek uziemiający trzpień
•
o
Płytki logiczne
o
Kable i złącza
o
Elementy konfiguracyjne
o
Płyta czołowa
Cechy dysków twardych o
Niezawodność
o
Wydajność
o
Zabezpieczania przeciw wstrząsowe
o
Koszt
o
Pojemność
o
Szczegółowe wskazówki
Rozdział 15. Interfejsy dysków twardych
•
Rodzaje interfejsów
•
Interfejs ST-506/412
•
Schematy kodowania i związane z nim problemy
•
Interfejs ESDI
•
Interfejs IDE o
Początki IDE
o
Rodzaje magistrali IDE
o
8-bitowa magistrala XT-Bus IDE
o
MCA IDE
•
Wprowadzenie do SCSI
•
IDE kontra SCSI
•
o
Wydajność
o
SCSI vs IDE: przewagi i ograniczenia
o
Zalecane kontrolery i host-adaptery
o
Zalecane host-adaptery SCSI
Ograniczenia sprzętowe i programowe dysków o
Ograniczenia pojemności interfejsu dyskowego
o
Ograniczeniu pojemności ROM BIOS-u
o
Ograniczenia pojemności systemu operacyjnego
Rozdział 16. Instalacja dysku twardego
•
Procedury instalacji dysku twardego
o
Konfigurowanie dysku
o
Konfigurowanie kontrolera
o
Sposoby montowania dysku
o
Konfigurowanie systemu
o
Formatowanie i instalacja oprogramowania
•
Naprawa dysków twardych i rozwiązywanie problemów z nimi związanych
•
Kody błędów sprzętowych 17x\, 104xx i 210xx
Rozdział17. Napędy CD-ROM
•
•
•
•
Czym jest CD-ROM? o
Krótka historia CD-ROM-u
o
Technologia CD
o
Wewnątrz płyty CD-ROM
Dostępne typy napędów o
Dane techniczne CD-ROM-u
o
Interfejs
o
Mechanizm lądowania dysków
o
Inne właściwości napędów
Formaty dysków i napędów CD-ROM o
Standard danych: ISO 9660
o
Format High Sierpa
o
CD-DA (cyfrowe audio)
o
CD-ROM XA, czyli Architektura rozszerzona
o
CD z mieszanymi rodzajami ścieżek
o
PhotoCD
o
CD-R
o
CD-E
o
Historia DVD
o
Specyfikacje DVD
DVD
•
Multimedia CD-ROM
•
Instalowanie napadu o
Unikanie konfliktów: poustawiaj swoje karty
o
Konfigurowanie napędu
o
Podłączanie zewnętrznego napędu (SCSI) CD-ROM
o
Instalowanie napędów wewnętrznych
•
•
o
Kabel a złącze brzegowe karty
o
Magistrale SCSI: wewnętrzna, zewnętrzna, po części z każdej strony
o
Oprogramowanie CD-ROM-u
Ładowanie oprogramowania o
CD-ROM a Microsoft Windows 3.X
o
CD-ROM a Windows 95 i Windows NT 4.0
Rozwiązywanie problemów przysparzanych przez napędy CD-ROM
Rozdział 18. Urządzenia pamięci masowej
•
•
•
Napędy taśmowe o
Historia powstania standardów archiwizacji z wykorzystaniem napędów taśmowych
o
Standard QIC
o
Taśmy QIC
o
Kompatybilność taśm QIC
o
Inne napędy o wysokiej pojemności
o
Wybór najlepszego napędu
o
Instalacja streamerów
o
Oprogramowanie archiwizujące
Napędy na wymienne nośniki o
Rodzaje napędów na wymienne nośniki
o
Napędy magnetyczne
o
Napędy magneto optyczne
o
Porównanie napędów na wymienne nośniki
Nagrywarki CD-ROM o
CD-R
o
CD-RW
Rozdział 19. Drukarki
•
Technologia drukowania o
Rozdzielczość druku
o
Języki opisu strony (PDL)
o
Kody sterujące
o
Pamięć drukarek
o
Czcionki
o
Sterowniki drukarki
•
•
•
•
•
Jak działają drukarki o
Drukarki laserowe
o
Drukarki atramentowe
o
Drukarki igłowe
Drukowanie w kolorze o
Atramentowe drukarki kolorowe
o
Kolorowe drukarki laserowe
o
Drukarki wykorzystujące proces sublimacji barwnika
o
Drukarki wykorzystujące proces cieplnego przenoszenia wosku
Wybór typu drukarki o
Ile drukarek?
o
Urządzenia łączone
o
Prędkość drukowania
o
Rodzaje papieru
o
Koszty użytkowania
Instalacja obsługi drukarki o
Sterowniki systemu DOS
o
Sterowniki systemu Windows
Konserwacja sprzętu o
Drukarki laserowe i atramentowe
o
Drukarki igłowe
o
Wybór najlepszego papieru
•
Najczęstsze problemy z drukowaniem
•
Sprzętowe problemy drukarek o
Problemy z podłączeniem
o
Problemy ze sterownikiem
o
Problemy aplikacji
Rozdział 20. Samodzielny montaż komputera
•
Części składowe komputera o
Obudowa i zasilacz
o
Płyta główna
o
Porty
o
Napęd dyskietek
o
Dysk twardy
o
Napędy CD-ROM
•
o
Klawiatura i myszka
o
Karta graficzna i monitor
o
Karta muzyczna i głośniki
o
Urządzenia zewnętrzne USB
o
Wyposażenie dodatkowe
Montaż komputera
Rozdział 21. Komputery przenośne
•
Typy komputerów przenośnych o
Laptopy
o
Notebooki
o
Mininotebooki
•
Specyfika komputerów przenośnych
•
Rozbudowa i naprawa komputerów przenośnych
•
Budowa komputera przenośnego
•
o
Wyświetlacze
o
Procesory
o
Obudowy procesorów Mobile
o
Chipsety
o
Pamięć
o
Twarde dyski
o
Inne urządzenia pamięci zewnętrznej
o
Standard PC Card
o
Klawiatury
o
Urządzenia wskazujące
o
Akumulatory
Dodatkowe wyposażenie o
Zewnętrzne monitory
o
Stacje dokujące
o
Łączność
Rozdział 22. Programowe i sprzętowe narzędzia diagnostyczne
•
Oprogramowanie diagnostyczne
•
Test przy włączaniu (POST) o
Co jest testowanie
•
o
Dźwiękowe kody błędów POST
o
Wizualne kody błędów generowane przez POST
o
Kody generowane przez POST w portach I/O
Programy diagnostyczne IBM o
•
•
Zaawansowane programy diagnostyczne IBM
Programy diagnostyczne ogólnego użytku o
AMIDiag
o
CheckitPro
o
Microscope
o
Programy diagnostyczne Norton Utilities
o
PC Technician
o
QAPIus/FE
o
Diagnostyka systemu operacyjnego
Programy diagnozujące dyski o
Drive Probe
o
Disk Manager
•
Narzędzia odzyskujące dane
•
Programy diagnostyczne shareware oraz public-domain
Rozdział 23. Oprogramowanie systemowe, rozwiązywanie problemów
•
•
•
Dyskowy System Operacyjny (DOS) o
Podstawy systemu operacyjnego
o
Systemowy BIOS
o
Składniki DOS-u
o
IO.SYS (lub IBMBIO.COM)
o
MSDOS.SYS (lub IBMDOS.COM)
o
Powloką lub interpreter poleceń (COMMAND.COM)
Procedura poszukiwania plików przez DOS o
Wersje DOS-u
o
Potencjalne problemy z uaktualnianiem DOS-u
o
Znane biedy DOS-u
o
Proces uruchamiania komputera
o
Sposób wgrywania się i uruchamiania DOS-u
o
Nadzór nad plikami
o
Komunikacja z napędami dyskowymi
Windows 3.1
•
•
•
•
•
•
o
16-bitowe wersje Windows
o
Ładowanie Windows 3.1
o
Kluczowe pliki Windows
o
32-bitowy dostęp do dysku
Windows 9x o
Porównanie Windows 95 z DOS-em
o
Wersje
o
Architektura Windows 9x
o
FAT32
Windows NT o
Wersje
o
Uruchamianie Windows NT
o
Komponenty Windows NT
Systemy plików i odzyskiwanie danych o
Struktury dyskowe FAT
o
Katalog główny
o
VFAT i długie nazwy plików
o
FAT32
o
Rozmiary klastrów w FAT32
o
Mirroring tablicy FAT
o
Tworzenie partycji FAT32
o
Konwersja FAT 16 na FAT32
Biedy systemu plików FAT o
Zgubione klastry
o
Skrzyżowane pliki
o
Niewłaściwe pliki lub kartoteki
o
Biedy tablicy FAT
DOS-owe programy odzyskujące dane i dyski o
Polecenie CHKDSK
o
Polecenie RECOVER
o
SCANDISK
o
Defragmentacja dysku
o
Programy niezależnych producentów
NTFS o
Architektura NTFS
o
Zgodność NTFS
o
Tworzenie dysków NTFS
o
Narzędzia NTFS
Rozdział 24. Rodzina komputerów osobistych IBM PC
•
Cechy poszczególnych modeli o
Modele i cechy komputerów PC Convertible
o
Karty pamięci
o
Wprowadzenie do komputerów XT (5160)
o
Wprowadzenie do komputerów Portable PC
o
Wprowadzenie do komputerów AT
o
Wstęp do XT Model 286
Rozdział 25. Podsumowanie
o
Podręczniki
o
Urządzenia
o
Modemy
o
Czasopisma
Dodatki Dodatek A Lista sprzedawców sprzętu Dodatek B Słownik Skorowidz