Dysk twardy
Dysk twardy 3,5" widziany z góry (po lewej) i od dołu (po prawej)
Dysk twardy 3,5" (po lewej) i 2,5" (po prawej)
film przedstawiający pracę dysku twardego
Dysk 3,2 i 30 GB obrazowany za pomocą MFM.
Dysk twardy, napęd dysku twardego (ang. hard disk drive) – rodzaj pamięci masowej, wykorzystujący nośnik magnetyczny do przechowywania danych. Nazwa "dysk twardy" wynika z zastosowania twardego materiału jako podłoża dla właściwego nośnika, w odróżnieniu od dyskietek (ang. floppy disk, czyli miękki dysk), w których nośnik magnetyczny naniesiono na podłoże elastyczne.
Pierwowzorem twardego dysku jest pamięć bębnowa. Pierwsze dyski twarde takie, jak dzisiaj znamy, wyprodukowała w 1980 roku firma Seagate – był przeznaczony do mikrokomputerów, miał pojemność 5 MB, czyli 5 razy więcej niż ówczesna, dwustronna dyskietka 8-calowa.
Pojemność dysków wynosi od 5 MB (przez 10 MB, 20 MB i 40 MB – dyski MFM w komputerach klasy XT 808x i 286) do 4 TB[1] (w laptopach 20-1000 GB). Opracowano również miniaturowe dyski twarde typu Microdrive, o pojemnościach od kilkuset MB do kilku GB, przeznaczone dla cyfrowych aparatów fotograficznych i innych urządzeń przenośnych.
Dla dysków twardych najważniejsze są następujące parametry: pojemność, szybkość transmisji danych, czas dostępu do danych, prędkość obrotowa dysków magnetycznych (obr/min.) oraz średni czas bezawaryjnej pracy (MTBF).
Kilka dysków twardych można łączyć w macierz dyskową,
dzięki czemu można zwiększyć niezawodność przechowywania danych,
dostępną przestrzeń na dane, zwiększyć szybkość odczytu/zapisu.
a)Historia
Jeden z pierwszych modeli twardych dysków IBM
Użycie sztywnych talerzy i uszczelnienie jednostki umożliwia większą
precyzję zapisu niż na dyskietce, w wyniku czego dysk twardy może
zgromadzić o wiele więcej danych niż dyskietka. Ma również krótszy czas dostępu do danych i w efekcie szybszy transfer.
- 4 września 1956 firma IBM skonstruowała pierwszy 24-calowy dysk twardy o nazwie RAMAC 350. Miał on pojemność 5 MB.
- W 1983 pojawiły się komputery IBM PC/XT z dyskami 5 i 10 MB
- W 1984 firma Seagate wprowadziła na rynek pierwszy dysk 5.25", ST-506 o pojemności 5 MB.
- W 1986 został opracowany kontroler IDE (Integrated Drive Electronics).
- W 1987 rozpoczęła się era dysków 3,5 cala
- W 2003 dysk twardy w typowym stanowisku pracy mógł zgromadzić od 60 do 500 GB
danych, obracać się z prędkością 5400 do 10 000 obrotów na minutę (taka
prędkość obrotowa jest możliwa dzięki zastosowaniu łożyskowania FDB). W wydajnych serwerach i HI-Endowych stacjach roboczych stosowane były dyski SCSI o prędkościach obrotowych na poziomie 15.000 obrotów na minutę.
- W 2006 dzięki technologii zapisu prostopadłego możliwe jest przetrzymywanie na dysku ponad 1 TB danych. Standardem staje się złącze SATA i SAS oraz technologia optymalizacji odczytu NCQ. Stacje dyskietek zaczęły przegrywać z pamięciami USB do których złącza montuje się z przodu obudowy.
- W 2008 pojawiły się dyski SSD. Na początku technologia ta była bagatelizowana przez dużych graczy (np. Western Digital).
Jednak stosunkowo duże zainteresowanie rynku mimo bardzo wysokiej ceny,
duża wydajność dzięki minimalnemu czasowi dostępu do danych oraz
malejąca cena za MB szybko zmieniła ich nastawienie.
- Na początku 2009 wyprodukowane zostały dyski o pojemność 2 TB. Pojawiły się wersje dysków Green, czyli ekologicznych o dynamicznej zmianie prędkości obrotowych. Rozwijany jest standard SATA 3 na potrzeby dysków SSD.
- W październiku 2010 Western Digital wyprodukowała dysk twardy Caviar Green o pojemności 3 TB
- Pod koniec 2011 Hitachi wyprodukowała dysk twardy o pojemności 4 TB
- Od marca 2012 roku na rynku pozostało jedynie 3 producentów dysków twardych: Western Digital, Seagate Technology oraz Toshiba.
b)Budowa
Sześć dysków twardych o wymiarach 8″, 5.25″, 3.5″, 2.5″, 1.8″, i 1″
Dysk twardy po zdjęciu pokrywy
Schemat budowy dysku twardego
Dysk stały składa się z zamkniętego w obudowie, wirującego talerza (dysku) lub zespołu talerzy, wykonanych najczęściej ze stopów aluminium, o wypolerowanej powierzchni, pokrytej nośnikiem magnetycznym o grubości kilku mikrometrów, oraz z głowic elektromagnetycznych
umożliwiających zapis i odczyt danych. Na każdą powierzchnię talerza
dysku przypada po jednej głowicy odczytu i zapisu. Głowice są
umieszczone na elastycznych ramionach i w stanie spoczynku stykają się z
talerzem blisko jego osi. W czasie pracy unoszą się, a ich odległość
nad talerzem jest stabilizowana dzięki sile aerodynamicznej powstałej w wyniku szybkich obrotów talerza. Jest to najpopularniejsze obecnie rozwiązanie (są też inne sposoby prowadzenia głowic nad talerzami)[potrzebne źródło].
Ramię głowicy dysku ustawia głowice w odpowiedniej odległości od osi obrotu talerza w celu odczytu lub zapisu danych na odpowiednim cylindrze. Pierwsze konstrukcje (do ok. 200MB) były wyposażone w silnik krokowy, stosowany uprzednio w stacjach dyskietek.
Wzrost liczby cylindrów na dysku oraz konieczność zwiększenia szybkości
dysków wymusił wprowadzenie innych rozwiązań. Najpopularniejszym
obecnie jest tzw. voice coil czyli cewka, wzorowana na układzie magnetodynamicznym stosowanym w głośnikach. Umieszczona w silnym polu magnetycznym
cewka porusza się i zajmuje położenie zgodnie z przepływającym przez
nią prądem, ustawiając ramię w odpowiedniej pozycji. Dzięki temu czas
przejścia między kolejnymi ścieżkami jest nawet krótszy niż 1 milisekunda,
a przy większych odległościach nie przekracza kilkudziesięciu
milisekund. Układ regulujący prądem zmienia natężenie prądu, tak by
głowica ustabilizowała jak najszybciej swe położenia w zadanej
odległości od środka talerza (nad wyznaczonym cylindrem).
Informacja jest zapisywana na dysk przez przesyłanie strumienia elektromagnetycznego przez antenę albo głowicę zapisującą, która jest bardzo blisko magnetycznie polaryzowalnego materiału, zmieniającego swoją polaryzacją magnetyczną wraz ze strumieniem indukcji magnetycznej.
Informacja może być z powrotem odczytana w odwrotny sposób, gdyż
zmienne pole magnetyczne powoduje indukowanie napięcia elektrycznego w
cewce głowicy lub zmianę oporu w głowicy magnetyczno-oporowej.
Ramiona połączone są zworą i poruszają się razem. Zwora kieruje
głowicami promieniowo po talerzach a w miarę rotacji talerzy, daje
każdej głowicy dostęp do całości jej talerza.
Zintegrowana elektronika kontroluje ruch zwory, obroty dysku, oraz przygotowuje odczyty i zapisy na rozkaz od kontrolera
dysku. Nowoczesne układy elektroniczne są zdolne do skutecznego
szeregowania odczytów i zapisów na przestrzeni dysku oraz do
zastępowania uszkodzonych sektorów zapasowymi.
Obudowa chroni części napędu od pyłu, pary wodnej, i innych źródeł
zanieczyszczenia. Jakiekolwiek zanieczyszczenie głowic lub talerzy może
doprowadzić do uszkodzenia głowicy (head crash), awarii dysku, w której
głowica uszkadza talerz, ścierając cienką warstwę magnetyczną. Awarie
głowicy mogą również być spowodowane przez błąd elektroniczny,
uszkodzenie, błędy produkcyjne dysku lub zużycie.
c)Dysk RAM
Dyski RAM to urządzenia emulujące dyski, w których do zapisu danych stosuje się rozwiązania wykorzystujące popularne pamięci RAM,
dzięki którym osiąga się krótki czas dostępu i bardzo szybki transfer
danych, którego wartości przekraczają przepustowość oferowaną przez
typowe interfejsy dla dysków twardych, takie jak Ultra ATA czy Serial
ATA. Dysków RAM nie należy mylić z coraz popularniejszymi dyskami SSD,
różnica polega na rodzaju pamięci krzemowej (Flash ROM vs dynamic RAM).
Dyski RAM mają mniejsze pojemności i są zdecydowanie droższe. Zasadniczą
wadą takich dysków jest utrata zapisanych danych przy zaniku napięcia
(np. przy wyłączeniu komputera), dlatego też stosuje się pomocnicze źródła prądu podtrzymujące pracę dysków: wbudowane akumulatory i zewnętrzne zasilacze.
Dotychczas zaproponowane rozwiązania to:
– dysk zabudowany na karcie PCI (dysk iRAM)
– dysk w standardowej obudowie 5.25"
– dysk na karcie rozszerzeń ISA, zawierający własne akumulatory oraz
gniazdo niewielkiego zewnętrznego zasilacza podtrzymującego układy i
ładującego akumulatory.
http://pl.wikipedia.org/wiki/Dysk_twardy
9) mysz
|
Mysz komputerowa
Standardowa mysz komputerowa
Prototyp myszy Douglasa Engelbarta
Mysz (z ang. mouse) – urządzenie wskazujące używane podczas pracy z interfejsem graficznym systemu komputerowego.
Mysz umożliwia poruszanie kursorem po ekranie
monitora poprzez przesuwanie jej po powierzchni płaskiej. Mysz
odczytuje zmianę swojego położenia względem podłoża i wysyła ją w formie
danych cyfrowych
do komputera, który dokonuje odpowiedniej zmiany położenia kursora na
ekranie. Najczęściej wyposażona jest w dwa przyciski i kółko do
przewijania ekranu, które może również pełnić rolę trzeciego przycisku.
http://pl.wikipedia.org/wiki/Mysz_komputerowa
|
|
Klawiatura komputerowa
Klawiatura komputerowa
Klawiatura komputerowa – uporządkowany zestaw klawiszy służący do ręcznego sterowania urządzeniem lub ręcznego wprowadzania danych.
W zależności od spełnianej funkcji klawiatura zawiera różnego rodzaju
klawisze – alfabetyczne, cyfrowe, znaków specjalnych, funkcji
specjalnych, o znaczeniu definiowanym przez użytkownika.
Klawiatury występują w najróżniejszych urządzeniach domowych – maszynach do pisania, klawiszowych instrumentach muzycznych, kalkulatorach, telefonach, tokenach; w szczególności jest to jeden z podzespołów wejściowych komputera.
Aktualnie używane modele klawiatur komputerowych mają około 100
klawiszy. Coraz częściej w klawiatury komputerowe wbudowuje się
dodatkowe elementy sterujące (gładzik, dodatkowe przyciski, pokrętła, suwaki i in.), kontrolne (diody świecące) i inne (np. czytnik kart pamięci, porty USB, gniazda do zestawu słuchawkowego) – najczęściej do obsługi multimediów.
a)Konstrukcje
Klawiatury mogą mieć najróżniejszą konstrukcję:
- mechaniczne, historycznie najstarsze – ruch klawisza za pomocą mniej lub bardziej skomplikowanego systemu dźwigni, cięgien
itp. układów mechanicznych bezpośrednio wykonuje czynność użyteczną
(np. napęd dźwigni w maszynie do pisania, przestawienie tarczy w arytmometrze mechanicznym)
- stykowe – ruch klawisza powoduje bezpośrednio zwarcie (lub, rzadziej, rozwarcie) w układzie elektrycznym/elektronicznym:
- sprężynowa
- membranowa – wykonana jest z kilku warstw: warstwa z nadrukiem graficznym wykonana z poliestru lub poliwęglanu, warstwa laminująca, warstwa poliestrowa z nadrukowanym obwodem drukowanym (technika druku – sitodruk,
farby przewodzące prąd), membrana oddzielająca, kolejna warstwa z
nadrukowanym obwodem drukowanym i kolejna warstwa laminująca. Membrana
oddziela obwody drukowane poza momentem, gdy naciskany jest przycisk.
- z gumą przewodzącą (obecnie najbardziej rozpowszechnione) – wciśnięcie klawisza powoduje dociśnięcie gumy przewodzącej do obwodu drukowanego, powodując znaczne obniżenie rezystancji pomiędzy końcówkami pola stykowego
- bezstykowa:
- optoelektroniczna – ruch klawisza powoduje wsunięcie lub wysunięcie przesłony do/z transoptora
- pojemnościowa – obecnie stosowana rzadko – klawisz połączony jest z elementem zmieniającym pojemność współpracującego kondensatora najczęściej poprzez wsunięcie się między okładziny
- kontaktronowa – naciśnięcie klawisza powoduje przysunięcie magnesu do kontaktronu wymuszając zwarcie styków
- ekranowa:
- dotykowa – na ekranie wyświetlany jest układ klawiszy, dotknięcie
zaznaczonego miejsca jest równoznaczne z wprowadzeniem znaku, konieczne
jest posiadanie specjalnego monitora dotykowego
- klasyczna – na ekranie wyświetlany jest układ klawiszy, kliknięcie
myszką w wybranym miejscu jest równoznaczne z wybraniem znaku; wariant
zbliżony do poprzedniego, ale nie wymaga specjalnego monitora. Zaletą
klawiatur ekranowych w porównaniu z fizycznymi jest możliwość wizualnej
prezentacji wielu zestawów znaków z różnych alfabetów.
b)Zasada działania
Wirtualna klawiatura podczas pracy
Miniklawiatura do PC.
Na klawiaturze komputerowej każde naciśnięcie lub puszczenie klawisza powoduje wysłanie sygnału
do komputera. Każdy klawisz ma przypisaną własną parę sygnałów, zwanych
„scancode”. Od pewnego czasu na rynku dostępne są klawiatury
bezprzewodowe stosujące do komunikacji z komputerem podczerwień (musi być kontakt klawiatury z odbiornikiem sygnału) oraz fale radiowe (mogą to być znaczne odległości ok. 5 m). Najnowszym trendem jest łączenie klawiatur za pomocą standardu Bluetooth. Klawiatury wprowadzające znaki łacińskie występują najczęściej w tzw. układzie QWERTY (od pierwszych liter w lewym, górnym rogu klawiatury), rzadziej QWERTZ (klawiatury niemieckie czy polskie w tzw. układzie maszynistki) czy AZERTY (francuskie). Istnieją również inne układy klawiatur, między innymi klawiatura Dvoraka, której celem jest przyśpieszenie pisania.
Układ znaków na klawiaturze klawiatury komputerowe odziedziczyły po
klawiaturach mechanicznych maszyn do pisania – występował tam problem
blokujących się dźwigni podczas szybkiego pisania, który próbowano
rozwiązać poprzez umieszczenie klawiszy z najczęściej powtarzającymi się
sekwencjami liter w taki sposób, by leżały możliwie daleko od siebie.
Obecnie produkuje się głównie klawiatury na łącze PS/2 i USB.
Długotrwała praca na klawiaturze może prowadzić do zespołu RSI.
c)Historia
- 82-klawiszowa – klawiatura typu PC i XT
- 84-klawiszowa – klawiatura typu AT
- 101-klawiszowa – klawiatura rozszerzona o klawisze numeryczne
- 104-klawiszowa – klawiatura 101 rozszerzona o dodatkowe klawisze dla menu Windows
- multimedialna – klawiatura 104 rozszerzona o dodatkowe klawisze.
- multimedialna – klawiatura 145 rozszerzona o dodatkowe klawisze,
nowy moduł kodowania i zapamiętywania klawiszy. Klawiatura jest w stanie
zapamiętać ponad 230 różnych kombinacji.
Pierwszy komputer wyposażony w klawiaturę powstał w 1960 roku.
d)Układ
Kliknij jakiś klawisz, by dowiedzieć się o nim więcej.
e)Rodzaje klawiatur
Wnętrze klawiatury komputerowej
11.Przykłady urządzeń i ich przeznaczenie
Przykłady urządzeń oraz ich przeznaczenie.
Przeznaczenie
|
Przykłady urządzeń
|
Przetwarzanie
danych
|
Modem, Karta sieciowa
|
Wprowadzanie
danych
urządzenia
wejścia
|
Kamera, Mysz, Klawiatura,
Mikrofon
|
Wyprowadzanie
informacji urządzenia wyjścia
|
Monitor
|
Przechowywanie
informacji
pamięci
masowe
|
Pendrive, Karta micro SD, Płyta CD, dyskietka, Karta M2,Płyta DVD, Dysk
|
Przetwarzanie
obrazu
|
Aparat, Kamera
|
Wymiana
informacji
|
Urządzenia
komunikacyjne – przewodowe
|
Modem, kabel USB, Kabel HDMI
|
Urządzenia
komunikacyjne - bezprzewodowe
|
Karta Sieciowa (Wi-Fi), Bluetooth, Port IR
|
|
|
|
|
|
|
12.Co znajduje się na płycie głównej?
|
|
|
|
a)Procesor
Procesor (ang. processor), także CPU (ang. Central Processing Unit) – urządzenie cyfrowe sekwencyjne, które pobiera dane z pamięci, interpretuje je i wykonuje jako rozkazy.
Wykonuje on ciąg prostych operacji (rozkazów) wybranych ze zbioru
operacji podstawowych określonych zazwyczaj przez producenta procesora
jako lista rozkazów procesora.
Procesory (zwane mikroprocesorami) wykonywane są zwykle jako układy scalone zamknięte w hermetycznej obudowie, często posiadającej złocone wyprowadzenia (stosowane ze względu na odporność na utlenianie). Ich sercem jest monokryształ krzemu, na który naniesiono techniką fotolitografii szereg warstw półprzewodnikowych, tworzących, w zależności od zastosowania, sieć od kilku tysięcy do kilkuset milionów tranzystorów. Połączenia wykonane są z metalu (aluminium, miedź).
Jedną z podstawowych cech procesora jest długość (liczba bitów) słowa, na którym wykonywane są podstawowe operacje obliczeniowe. Jeśli słowo ma 64 bity, mówimy, że procesor jest 64-bitowy.
Innym ważnym parametrem określającym procesor jest szybkość, z jaką
wykonuje on rozkazy. Przy danej architekturze procesora, szybkość ta w
znacznym stopniu zależy od czasu trwania pojedynczego taktu.
W funkcjonalnej strukturze procesora można wyróżnić takie elementy, jak:
- zespół rejestrów do przechowywania danych i wyników, rejestry mogą być ogólnego przeznaczenia lub mają specjalne przeznaczenie,
- jednostkę arytmetyczną (arytmometr) do wykonywania operacji obliczeniowych na danych,
- układ sterujący przebiegiem wykonywania programu,
- inne układy, w które producent wyposaża procesor w celu usprawnienia jego pracy.
http://pl.wikipedia.org/wiki/Procesor
13.Magistrala komunikacyjna
Magistrala (ang. bus) – zespół linii oraz układów przełączających służących do przesyłania sygnałów między połączonymi urządzeniami w systemach mikroprocesorowych, złożony z trzech współdziałających szyn:
- sterująca (kontrolna) - mówi, czy sygnał ma zostać zapisany, czy odczytany
- adresowa
(rdzeniowa) - mówi, z jakiej komórki pamięci sygnał ma zostać odczytany
lub do jakiej komórki pamięci sygnał ma zostać zapisany;
- danych - tą magistralą przepływają dane.
Jest elementem, który sprawia, że system komputerowy
staje się określoną całością. Szerokość magistrali (liczba równoległych
ścieżek szyny danych) określa, ile bitów może ona przesłać za jednym
razem (w jednym takcie). Rozróżniane są 2 typy magistrali:
jednokierunkowa (dane przepływają tylko w jednym kierunku) oraz
dwukierunkowa (dane przepływać mogą w obu kierunkach).
magistrale
http://pl.wikipedia.org/wiki/Magistrala_komunikacyjna
14.Pamięć podręczna
Pamięć podręczna (ang. cache) – mechanizm, w którym część spośród danych zgromadzonych w źródłach o długim czasie dostępu
i niższej przepustowości jest dodatkowo przechowywana w pamięci o
lepszych parametrach. Ma to na celu poprawę szybkości dostępu do tych
informacji, które przypuszczalnie będą potrzebne w najbliższej
przyszłości.
Pamięć podręczna jest elementem właściwie wszystkich systemów – współczesny procesor ma 2 albo 3 poziomy pamięci podręcznej oddzielającej go od pamięci RAM. Dostęp do dysku jest buforowany w pamięci RAM, a dokumenty HTTP są buforowane przez pośredniki HTTP oraz przez przeglądarkę.
Systemy te są tak wydajne dzięki lokalności odwołań – jeśli nastąpiło
odwołanie do pewnych danych, jest duża szansa, że w najbliższej
przyszłości będą one potrzebne ponownie. Niektóre systemy pamięci
podręcznej próbują przewidywać, które dane będą potrzebne i pobierają je
wyprzedzając żądania. Np. pamięć podręczna procesora pobiera dane w
pakietach po kilkadziesiąt czy też więcej bajtów, pamięć podręczna dysku zaś nawet do kolejnych kilkuset kilobajtów czytanego właśnie pliku.
Niektóre systemy pamięci podręcznej umożliwiają informowanie systemu
na temat charakteru danych by umożliwiać bardziej efektywne buforowanie.
Służy temu np. wywołanie systemowe madvise.
a)Zasady projektowania pamięci podręcznej
Część systemu komputerowego zajmująca się buforowaniem danych powinna charakteryzować się następującymi właściwościami:
- powinna być jak najbardziej automatyczna
- jej działanie nie powinno wpływać na semantykę pozostałych części systemu
- powinna w jak największym stopniu poprawiać wydajność systemu w warunkach rzeczywistej pracy
Projektując pamięć podręczną rozpatruje się pewne typowe warunki, w
jakich będzie ona wykorzystywana. Program korzystający z pamięci
podręcznej ma więcej informacji na temat użycia pamięci w najbliższym
czasie, i wydajność systemu można polepszyć jeśli zrezygnuje się z
pełnej automatyzacji a pozwoli na dawanie pamięci podręcznej sugestii co
do właściwego zachowania w danej sytuacji. W ten sposób działa m.in. wywołanie systemowe madvise, specjalne instrukcje asemblera na niektórych procesorach, nagłówki kontroli pamięci podręcznej w HTTP; wiele systemów zarządzania bazami danych pozwala też na przekazywanie kontrolerowi pamięci sugestii.
Zadanie pamięci podręcznej można wyrazić w następujący sposób: mamy
duży zbiór obiektów w powolnej pamięci, i niewielką ilość szybkiej
pamięci, w której na pewno nie pomieszczą się wszystkie obiekty. Ciągle
napływają żądania dostępu do obiektów, a pamięć podręczna musi je
wszystkie spełnić w jak najmniejszym stopniu korzystając z pamięci
powolnej.
b)Temperatura danych
Przy rozpatrywaniu systemu pamięci podręcznej przydatne jest pojęcie "temperatury" – czyli prawdopodobieństwa,
że w najbliższym czasie wpłynie żądanie dostępu do tego obiektu (jeśli
obiekt jest duży, temperatura poszczególnych części może się różnić).
Jest oczywiste, że powinniśmy w szybkiej pamięci trzymać obiekty o
możliwie wysokiej temperaturze. Jednak temperatura obiektu nie jest
znana, i musimy jakoś ją oszacować. Typowe heurystyki to:
- lokalność czasowa – jeśli obiekt był ostatnio żądany, to jest duże prawdopodobieństwo, że będzie żądany ponownie w najbliższym czasie
- lokalność przestrzenna
– jeśli obiekt był ostatnio żądany, to prawdopodobnie będą też żądane
obiekty leżące blisko niego. Położenie w wypadku pamięci komputera
oznacza zwykle adres maszynowy. W przypadku plików na stronie
internetowej, pliki linkujące do siebie leżą blisko siebie.
- o niektórych typach obiektów wiemy, że ich średnia temperatura jest
wyższa niż innych typów – np. temperatura pliku (z grubsza
proporcjonalna do liczby ściągnięć) xhtml/html na stronie internetowej jest zazwyczaj wyższa niż temperatura pliku pdf.
Żeby zmaksymalizować średnią temperaturę układu pamięci podręcznej,
należałoby operować na poziomie jak najmniejszych jednostek, np. kilku
bajtów. Byłoby to jednak bardzo niepraktyczne (obiekty zwykle są
większe), więc używa się większych jednostek – np. w DBMS kilkudziesięciokilobajtowych stron.
Strona taka może zawierać wiele obiektów. W miarę możliwości powinno
się tak projektować strony, aby obiekty na jednej stronie miały podobną i
skorelowaną temperaturę.
Jeśli na każdej stronie znajdowałyby się zarówno obiekty gorące jak i
chłodne, niemożliwe byłoby uzyskanie wysokiej temperatury układu
pamięci podręcznej. Jeśli natomiast niektóre strony będą znacznie
cieplejsze od innych, układ pamięci podręcznej może zawierać te pierwsze
i osiągnąć wyższą temperaturę. Na przykład w typowym drzewie indeksowym obiekty są relatywnie chłodne, natomiast wskaźniki są znacznie gorętsze. Tak więc trzymanie danych tylko na liściach pozwala na znacznie lepszą separację niż gdyby trzymać je na każdym węźle.
W miarę możliwości powinno się trzymać na stronie obiekty o skorelowanej temperaturze, np. strony pamięci wirtualnej procesora
zawierają leżące po kolei bajty, które ze względu na lokalność
przestrzenną mają prawdopodobnie skorelowane temperatury. Z tego też
powodu używa się osobnych linii pamięci podręcznej dla danych i dla
kodu.
c)Przykłady pamięci podręcznej
Pamięć podręczna procesora
Pamięć podręczna przyspiesza dostęp do relatywnie wolnej pamięci RAM. Charakteryzuje się bardzo krótkim czasem dostępu.
Jest używana do przechowywania danych, które będą w niedługim czasie
przetwarzane. Na współczesnych procesorach są 2 lub 3 poziomy pamięci
podręcznej L1 (zintegrowana z procesorem), a także L2 i L3 (umieszczone w jednym układzie scalonym razem z procesorem lub na płycie głównej).
Pamięć podręczna dysku twardego
Pamięć podręczna dysku twardego przyspiesza dostęp do bardzo wolnej pamięci masowej (w porównaniu do pamięci RAM, do której dane są pobierane). Pamięć podręczna o wielkości od 128 KB do 64 MB
jest zazwyczaj podzielony na dwie części: obszar podsystemu
odpowiedzialnego za odczyt z wyprzedzeniem i buforowanie odczytu oraz
mniejszy obszar opóźnionego zapisu. Dysk z kontrolerem komunikuje się
magistralą szybszą niż najszybsze budowane dyski twarde – daje to
możliwość przechowania danych w buforze i wysłania do kontrolera bez
wykonywania cyklu dostępu do nośnika oraz wpływa pozytywnie na szybkość
całego systemu.
Pamięć podręczna systemu plików
Oprócz pamięci podręcznej dysku twardego, system operacyjny zarządza
umieszczaniem zawartości plików w pamięci podręcznej oraz metadatnych
(jak katalogi, nazwy plików, itp) w pamięci operacyjnej (RAM), w ten
sposób zmniejszając użycie dysku zarówno podczas odczytu tych samych
danych, jak i zapisu. Taka pamięć podręczna ma zwykle od kilku
megabajtów do kilku gigabajtów, a jej rozmiar i zawartość jest
regulowana dynamicznie w zależności od sposobu użycia systemu. Niektóre
systemy plików potrafią również użyć np. lokalnego dysku jako pamięci
podręcznej danych z sieciowego systemu plików, czy też szybszego dysku
SSD jako pamięci podręcznej danych odczytywanych z powolnego dysku
magnetycznego.
Pamięć podręczna przeglądarki
Pamięć podręczna przeglądarki oznacza miejsce na dysku twardym, w
którym przeglądarka internetowa przechowuje odwiedzone uprzednio strony
(lub części stron) WWW.
Ma to na celu przyspieszenie przeglądania stron internetowych, gdyż nie
ma potrzeby ściągania odwiedzonych już stron z Internetu.
http://pl.wikipedia.org/wiki/Cache
15.Chipset
Schemat współczesnego komputera typu PC IBM
Chipset – grupa specjalistycznych układów scalonych, które są przeznaczone do wspólnej pracy. Mają zazwyczaj zintegrowane oznaczenia i zwykle sprzedawane jako jeden produkt.
W komputerach, termin chipset jest powszechnie używany w
odniesieniu do specjalistycznego układu scalonego lub zestawu układów
płyty głównej komputera lub karty rozszerzeń.
Wydajność i niezawodność komputera w znaczącej mierze zależy od tego układu. Układ ten organizuje przepływ informacji pomiędzy poszczególnymi podzespołami jednostki centralnej.
W skład chipsetu wchodzą zazwyczaj dwa układy zwane mostkami.
a)Podstawowe układy występujące w chipsetach to:
Chipsety mogą również zawierać zegar czasu rzeczywistego, układy zarządzania energią, sterowniki dysków twardych IDE, dysków elastycznych, sterownik SCSI, sterownik portów szeregowych i równoległych.
Termin ten był również stosowany w latach 80. i 90. do oznaczania
układów graficznych i dźwiękowych w komputerach i w konsolach do gier,
na przykład Commodore Amiga Original Chip Set czy Sega System 16.
http://pl.wikipedia.org/wiki/Chipset
16.BIOS
Nowoczesny układ BIOS
BIOS (akronim ang. Basic Input/Output System – podstawowy system wejścia-wyjścia) – zapisany w pamięci stałej zestaw podstawowych procedur pośredniczących pomiędzy systemem operacyjnym
a sprzętem. Posiada on własną pamięć, w której znajdują się informacje
dotyczące daty, czasu oraz danych na temat wszystkich urządzeń
zainstalowanych na naszym komputerze. Jest to program zapisany w pamięci
ROM płyty głównej oraz innych kart rozszerzeń takich jak np. karta graficzna.
Obecnie[od kiedy?] większość BIOS-ów zapisywana jest w pamięciach typu EEPROM, co umożliwia ich późniejszą aktualizację.
a)Działanie
W wypadku płyty głównej BIOS testuje sprzęt po włączeniu komputera, przeprowadza POST, zajmuje się wstępną obsługą urządzeń wejścia/wyjścia, kontroluje transfer danych pomiędzy komponentami takimi jak dysk twardy, procesor czy napęd CD-ROM. Inicjuje program rozruchowy. BIOS potrzebny jest w komputerach osobistych ze względu na architekturę płyt głównych, gdzie dzięki ACPI kontroluje zasilanie, jak również monitoruje temperaturę itp.
Za pomocą wbudowanego w BIOS interfejsu[1], nazywanego BIOS setup,
można zmieniać ustawienia BIOS-u, np. parametry podłączonych dysków
twardych lub zachowanie się komputera po jego włączeniu (np. szybkość
testowania pamięci RAM), a także włączać/wyłączać niektóre elementy płyty głównej, np. porty komunikacyjne. Za pomocą niektórych BIOS-ów można też przetaktowywać procesor i pamięci RAM, jednak nie jest to zalecane, ponieważ może doprowadzić do przeciążenia urządzenia, a nawet jego uszkodzenia.
Niektórzy producenci[kto?] sprzętu komputerowego umieszczają na płytach głównych
dodatkowy moduł pamięci flash, która stanowi zabezpieczenie dla
podstawowego BIOS-u, gdy ten zostanie np. uszkodzony/zniszczony przez wirusa komputerowego
lub w niewłaściwy sposób zaktualizowany. W takim przypadku zawartość
zapasowego układu przepisywana jest do pierwszego, podstawowego modułu
pamięci flash. Mechanizm ten firma Gigabyte Technology nazywa Dual BIOS.
http://pl.wikipedia.org/wiki/Bios
17.Jak ulepszyć komputer?
a)Gniazdo procesora
Gniazdo procesora (ang. CPU socket lub CPU slot) jest to rodzaj złącza znajdującego się na płycie głównej; pełni ono rolę interfejsu pomiędzy procesorem
a pozostałymi elementami systemu komputerowego umożliwiając jego
współpracę z systemem za pośrednictwem odpowiednich magistrali i układów
znajdujących się na płycie głównej.
Na każdej płycie głównej musi być przynajmniej jedno takie gniazdo; determinuje ono rodzaj procesora, jaki jest przez nią obsługiwany.
Producenci wyposażają swoje płyty w różne wersje gniazd
umożliwiających zastosowanie jednego z dostępnych procesorów, przy czym
rodzaj procesora często zależy również od zainstalowanego na płycie chipsetu. Dla procesorów Pentium i jego poprzedników stosowano jednakowe podstawki, jednak począwszy od procesora Pentium II, zaczęto projektować inne, zależnie od producenta.
Typ gniazda dla procesora musi być zgodny z określonym procesorem. Dla danego typu gniazda charakterystyczny jest kształt, napięcie rdzenia, prędkość magistrali systemowej oraz inne cechy. Na przykład Slot 1 – Celeron, Pentium II, Pentium III.
W pierwszych płytach głównych procesory były wlutowane, ale z powodu
coraz większej oferty procesorów i ich nieustannie zmieniającej się
budowy pojawiły się gniazda, które umożliwiły dopasowanie budowy płyty
oraz jej możliwości do potrzeb danego użytkownika. W efekcie użytkownik
chcąc wymienić procesor na procesor innej firmy, musi wymieniać całą
płytę główną.
Najczęściej obecnie spotykanym gniazdem montowanym na płytach głównych jest gniazdo typu ZIF.
Gniazda te umożliwiają łatwą instalację procesora bez użycia siły,
wyposażone są bowiem w małą dźwigienkę, służącą do zaciskania lub
poluzowania znajdującego się w gnieździe procesora. Mikroprocesory
posiadają piny, dzięki którym mogą zostać zamontowywane w gnieździe.
Należy bardzo uważać przy umieszczaniu mikroprocesora w podstawce, gdyż
zgięcie wyprowadzeń może trwale uszkodzić mikroprocesor.
b)Podział gniazd
- slot – wyglądem przypomina sloty ISA, PCI i AGP
- socket – poziomo położona prostokątna płytka, zawierająca dziurki na piny procesora lub piny, na które wkłada się procesor
- Istnieje jeszcze wiele innych gniazd, które jednak są już niestosowane.
-
18.Slot
Slot (z ang. szczelina) – określenie miejsca na płycie głównej w komputerze, do którego wkłada się urządzenia (np. kartę graficzną, sieciową, muzyczną
itp.). Nie jest to jednak określenie stosowane do jednego rodzaju
urządzeń, ale bardziej ogólne. Może się odnosić do kolejnych gniazd PCI – slot 1, 2, 3 lub np. do kolejnych gniazd na RAM.
Zazwyczaj płyty główne posiadają od 4 do 6 slotów na różne karty
(urządzenia) i od 2 do 4 slotów na RAM. Ponadto płyty główne
przeznaczone dla procesorów Intel Pentium II, niektórych Pentium III oraz Celeronów a także wczesnych procesorów AMD Athlon, wyposażone były w gniazdo procesora w postaci slota (odpowiednio Slot 1 i Slot A, które pomimo wykorzystania identycznych złącz jednak nie były ze sobą kompatybilne). |
|
|
|
|
|
|
|
|
|
|
|
http://pl.wikipedia.org/wiki/Slot |
|
|
|
|
18.PCI Express
Gniazda PCI-E od góry: x4, x16, x1 i x16 w porównaniu ze złączem PCI (na dole)
PCI Express (ang. Peripheral Component Interconnect Express), oficjalny skrót PCIe – połączenie Punkt-Punkt (jak HyperTransport), służące do instalacji kart rozszerzeń w płycie głównej. Zastąpiła ona magistrale PCI oraz AGP. Istnieje możliwość wyprowadzenia interfejsu PCIe na zewnątrz, stosowane m.in. w komputerach IBM 2827 EC12.
Standard został opracowany przez firmy Compaq, Dell, Hewlett-Packard, IBM, Intel i Microsoft. |
|
|
|
|
http://pl.wikipedia.org/wiki/PCI_Express |
Ciekawostka |
|
|
|
|
Obecnie często stosowane są płyty główne z wbudowanymi układami pełniącymi rolę kart graficznej,dżwiękowej i sieciowej.Jednak takie wbudowane w płytę elementy zwykle nie dorównują wydajnością zewnętrznym specjalnie zaprojektowanym kartom różnych producentów.Graficy czy muzycy powinni więc zaplanować zastąpienie ich odpowiednimi kartami rozszerzającymi. |
|
|