Podstawowe podzespoły komputera typu PC

 

Płyta główna (ang. motherboard, mainboard) – najważniejsza płyta drukowana urządzenia elektronicznego, na której montuje się najważniejsze elementy urządzenia,

umożliwiająca komunikację wszystkim pozostałym komponentom i modułom.

W komputerze na płycie głównej znajdują się procesor/y, pamięć operacyjna lub gniazda do zainstalowania tych urządzeń oraz gniazda do zainstalowania dodatkowych

płyt zwanych kartami rozszerzającymi (np. PCI), urządzeń składujących (dyski twarde, napędy optyczne itp.) i zasilacza. W niektórych konstrukcjach także innych

urządzeń zewnętrznych (port szeregowy, port równoległy, USB, złącze klawiatury, złącze myszy).

Koncepcję zbudowania komputera osobistego wyposażonego tylko w minimum potrzebnych urządzeń zmontowanych na jednej płycie drukowanej oraz gniazd

do których podłącza się dodatkowe urządzenia zapoczątkowała firma IBM wprowadzając komputer osobisty, zwany też PC.

W najczęściej stosowanych konfiguracjach większość urządzeń obecnych na płycie głównej zgrupowana jest w tzw. mostku północnym oraz południowym lub zintegrowana układzie MCP.

Mostek północy/układ MCP jest połączony z procesorem za pomocą magistrali FSB lub Hyper Transport. W nowszych rozwiązaniach układ ten zawiera podstawowy kontroler PCIe

(lub w starszych rozwiązaniach AGP) służący najczęściej do podłączenia urządzeń z rodzaju kart graficznych (także zintegrowanych) ale też wszelkich urządzeń wymieniających

z procesorem i/lub pamięcią duże ilości danych (bardzo często zintegrowane karty sieciowe).

Mostek południowy (jeśli występuje) jest podłączony do mostka północnego za pomocą magistrali (na przykład FSB) albo połączeniem typu PTP jak Hyper Transport.

Zawiera drugi kontroler PCIe, kontrolery SATA, PATA, USB, zintegrowany kontroler dźwięku (np. AC97, kontrolery Ethernetu, etc... Jeśli na płycie głownej występuje

tylko jeden układ, to najczęściej wszystkie funkcje mostka południowego i północnego są w nim zintegrowane.

Poza w/w na płycie głównej zawsze jest umieszczony układ BIOSu wraz z modułem RTC oraz moduł podtrzymania zegara czasu rzeczywistego.

 

Mikroprocesorukład cyfrowy wykonany jako pojedynczy układ scalony o wielkim stopniu integracji zdolny do wykonywania operacji cyfrowych według dostarczonego ciągu instrukcji.

Mikroprocesor (w skrócie μP) łączy funkcje centralnej jednostki obliczeniowej (CPU) w pojedynczym półprzewodnikowym układzie scalonym. Pierwszy mikroprocesor działał w oparciu

o słowa 4-bitowe, dzięki czemu tranzystory tworzące jego obwody logiczne mogły zmieścić się w jednym układzie.

Mikroprocesor umożliwił rozwój mikrokomputerów w połowie lat 70. dwudziestego wieku. Przed tym okresem, elektroniczne CPU były konstruowane z zajmujących wiele miejsca

indywidualnych urządzeń przełączających, z których każde było odpowiednikiem zaledwie kilku tranzystorów. Poprzez zintegrowanie procesora w jeden lub kilka obwodów scalonych

o coraz wyższej skali integracji (zawierających odpowiednik tysięcy lub milionów tranzystorów), stosunek możliwości do ceny procesora znacząco wzrósł.

Od połowy lat siedemdziesiątych, dzięki intensywnemu rozwojowi układów scalonych, mikroprocesor stał się najbardziej rozpowszechnioną formą CPU, prawie całkowicie zastępując wszystkie inne.

Ewolucję mikroprocesora dobrze opisuje prawo Moore’a mówiące o wzroście wydajności na przestrzeni lat. Mówi ono, że złożoność układów scalonych (liczba tranzystorów),

przy zachowaniu minimalnego kosztu składników, będzie się podwajać co 18 miesięcy. Stwierdzenie to zachowuje prawdziwość od czasu wczesnych lat 70.

Począwszy od układów porównywalnych z prostymi kalkulatorami, mikroprocesory osiągały coraz wyższą moc obliczeniową, co w rezultacie doprowadziło do ich dominacji nad każdą inną formą komputera.

Idea mikroprocesora była naturalną konsekwencją rozwoju techniki – jej urzeczywistnienie było jedynie kwestią czasu. Pracę nad prototypem mikroprocesora rozpoczęły trzy konkurujące ze sobą firmy.

W efekcie, w zbliżonym czasie pojawiły się pierwsze układy nadające się do produkcji seryjnej.

Były to:

 

W prawie każdym mikroprocesorze możemy wyróżnić następujące bloki

 pozostałymi jego blokami (na przykład jeśli zdekodowaną instrukcją będzie dodawanie, CU odpowiednio ustawi sygnały sterujące, by ALU wykonała tę właśnie operację)

obliczeń (rejestry danych) oraz adresów lokacji w pamięci operacyjnej (rejestry adresowe). Proste mikroprocesory mają tylko jeden rejestr danych zwany akumulatorem.

Oprócz rejestrów danych i rejestrów adresowych występuje też pewna liczba rejestrów o specjalnym przeznaczeniu:

Mikroprocesor komunikuje się z otoczeniem za pomocą szyny danych i szyny adresowej.

Generalnie każdy bardziej skomplikowany mikroprocesor można zaklasyfikować do jednej z trzech architektur:

Każda z nich ma swoją specyfikę, swoje wady i zalety.

 

Procesor (ang. processor), także CPU (ang. Central Processing Unit) – urządzenie cyfrowe sekwencyjne, które pobiera dane z pamięci, interpretuje je i wykonuje jako rozkazy.

Wykonuje on ciąg prostych operacji (rozkazów) wybranych ze zbioru operacji podstawowych określonych zazwyczaj przez producenta procesora jako lista rozkazów procesora.

Procesory (zwane mikroprocesorami) wykonywane są zwykle jako układy scalone zamknięte w hermetycznej obudowie, często posiadającej złocone wyprowadzenia

(stosowane ze względu na odporność na utlenianie). Ich sercem jest monokryształ krzemu, na który naniesiono techniką fotolitografii szereg warstw półprzewodnikowych, tworzących,

w zależności od zastosowania, sieć od kilku tysięcy do kilkuset milionów tranzystorów. Połączenia wykonane są z metalu (aluminium, miedź).

Jedną z podstawowych cech procesora jest długość (liczba bitów) słowa, na którym wykonywane są podstawowe operacje obliczeniowe. Jeśli słowo ma 64 bity, mówimy, że procesor jest 64-bitowy.

Innym ważnym parametrem określającym procesor jest szybkość z jaką wykonuje on rozkazy. Przy danej architekturze procesora, szybkość ta w znacznym stopniu zależy od czasu trwania pojedynczego taktu.

W funkcjonalnej strukturze procesora można wyróżnić takie elementy, jak:

·         Jednym z parametrów procesora jest rozmiar elementów budujących jego strukturę. Im są one mniejsze, tym niższe jest zużycie energii, napięcie pracy oraz wyższa

możliwa do osiągnięcia częstotliwość pracy.

·         Współczesne procesory używane w komputerach osobistych wykonywane są w technologii pozwalającej na uzyskanie elementów o rozmiarach mniejszych niż 45 nm, pracujących

z częstotliwością kilku GHz. Według planów największych producentów procesorów, pod koniec roku 2009 powinny pojawić się procesory wykonane w technologii 32 nm,

będą nimi m.in. procesory firmy Intel znane pod nazwą kodową Westmere. Firma AMD procesory wykonane w technologii 32 nm planuje wprowadzić na rynek w połowie 2010 roku.

·         Fabryki procesorów muszą posiadać pomieszczenia o niezwykłej czystości, co jest bardzo kosztowne.

·         Współcześnie większość procesorów ma wielordzeniową budowę. Pierwszym procesorem wielordzeniowym ogólnego przeznaczenia był procesor Power 4 firmy IBM

wprowadzony na rynek w roku 2001. Pierwszymi procesorami wielordzeniowymi architektury x86 były wersje procesorów Opteron firmy AMD i Pentium Extreme Edition

firmy Intel wprowadzone w kwietniu 2005 roku.

·         Modelem popularnym firmy Intel, który kontynuował ten trend był Intel Pentium D. Prawdziwym przebojem stał się dopiero Intel Core 2 Duo zbudowany na bazie architektury

·         Conroe (65 nm). Najszybsze dziś modele mają rdzeń taktowany zegarem 3,33 GHz (C2D E8600). Wymieniony procesor oparto o architekturę Penryn wykonano

w procesie technologicznym 45 nm (tj. największa długość kanału tranzystora wynosi 45nm).

·         Największy konkurent Intela, czyli AMD, wprowadził do sprzedaży popularny model procesora dwurdzeniowego o nazwie Athlon 64 X2. Obie firmy mają dziś w ofercie także

modele czterodzeniowe (Quad Intela i Phenom AMD). Firma AMD oferuje także procesory sześciordzeniowe (Istanbul). Przewiduje się, że w przyszłości, przez co najmniej kilka

następnych lat, liczba rdzeni w procesorach wielordzeniowych dostepnych na rynku będzie się podwajać w tempie podobnym jak liczba tranzystorów w pojedynczym układzie,

czyli zgodnie z prawem Moore'a ok. 2 lata.

·         W roku 2007 Intel zaprezentował testy układu scalonego wyposażonego w 80 rdzeni ogólnego przeznaczenia, który osiągnął wydajność ponad 1 TFlops.

·         Komputer oprócz procesora głównego (CPU) ma procesory pomocnicze: obrazu (GPU), dźwięku, koprocesory arytmetyczne.

Procesor bywa też nazywany jednostką centralną (poprzez tłumaczenie ang. CPU, Central Processing Unit w sposób niemal dosłowny). Część użytkowników jednostkę centralną kojarzy z handlowym

terminem określającym jednostką systemową komputera złożoną z elementów takich jak procesor, płyta główna, karty rozszerzeń, pamięć operacyjna, dysków twardych zamkniętych we wspólnej obudowie,

zazwyczaj nie obejmującą takich urządzeń peryferyjnych jak monitor, klawiatura czy drukarka.

Do typowych rozkazów wykonywanych przez procesor należą:

Instrukcje procesora identyfikowane są na podstawie binarnego kodu maszynowego, jednak dany kod nie musi oznaczać wykonywania tych

samych operacji przez procesor do tego samego (lub innego) zadania.

W tym celu, w procesorach niedostępnych masowo można spotkać możliwość programowania rozkazów CPU, czyli mikroprogramowania.

Rozwiązanie takie daje pełniejszą kontrolę nad procesorem oraz możliwość np. zwiększenia wydajności procesora w pewnych zastosowaniach itp., w znacznie większym stopniu niż w przypadku

np. dostępnych powszechnie procesorów, w których kody maszynowe są na stałe przypisane do listy wykonywanych mikroinstrukcji.

 

Chłodzenie procesora – proces odprowadzania ciepła z procesora komputera.

Współczesne procesory wydzielają duże ilości ciepła i dlatego wymagają intensywnego chłodzenia. W konstrukcjach do połowy lat 90. XX w.

najczęściej spotyka się chłodzenie aktywne, rzadziej chłodzenie pasywne i chłodzenie cieczą.

Chłodzenie aktywne zawiera wentylator wymuszający ruch powietrza w pobliżu powierzchni radiatora ułatwiając odprowadzanie z niego ciepła. W starszych układach płyt głównych

wentylator miał stałą prędkość obrotową, w nowszych prędkość obrotowa wentylatora jest regulowana automatycznie zależnie od temperatury procesora, dzięki czemu gdy komputer

nie jest obciążony wentylator kręci się wolniej i ciszej pracuje. Obroty można też regulować manualnie, za pomocą regulatora obrotów lub oprogramowania.

Zatrzymanie lub brak wentylatora w układzie aktywnym powoduje przegrzanie procesora i jeśli układ nie ma odpowiednich zabezpieczeń (np. w starszych procesorach lub płytach głównych),

może dojść do jego uszkodzenia.

Chłodzenie pasywne polega na odprowadzaniu ciepła tylko w wyniku konwekcji swobodnej powietrza wokół radiatora i układu lub wymuszenia ruchu powietrza przez wentylator komputera

bez dodatkowego wymuszania ruchu powietrza przez układ chłodzenia. Układ taki wymaga wydajnego radiatora.

Chłodzenie cieczą stosowane przez overclockerów dla których inne metody są za mało wydajne. Składa się z kilku elementów, najprostszy układ to: blok wodny, chłodnica, pompka

i rezerwuar (zbiornik wyrównawczy) połączone wężami. Konstruuje się układy w których chłodzenie wodne, oprócz procesora, chłodzi także kartę graficzną, mostek północny i inne silnie grzejące się układy scalone.

Między procesor i element chłodzący daje się niewielką ilość pasty termoprzewodzącej w celu lepszego odprowadzania ciepła z procesora.

Do chłodzenia można również wykorzystać moduł peltiera (takowy moduł jest mało wydajny, zachodzi możliwość skraplania się wody). Przez niektórych użytkowników stosowane są

ekstremalne układy chłodzenia, np. Pompa ciepła lub chłodzenie ciekłym azotem, jednak ze względu na trudny dostęp do potrzebnych elementów,

wysokie koszty utrzymania i stosowanie niebezpiecznych materiałów są rzadko spotykane.

 

 

 

RAM (ang. Random Access Memory – pamięć o dostępie swobodnym) – podstawowy rodzaj pamięci cyfrowej. Choć nazwa sugeruje, że oznacza to każdą

pamięć o bezpośrednim dostępie do dowolnej komórki pamięci (w przeciwieństwie do pamięci o dostępie sekwencyjnym, np. rejestrów przesuwających), nazwa

 ta ze względów historycznych oznacza tylko te rodzaje pamięci o bezpośrednim dostępie, w których możliwy jest wielokrotny zapis, a wyklucza pamięci ROM

(tylko do odczytu), pomimo iż w ich przypadku również występuje swobodny dostęp do zawartości.

W pamięci RAM przechowywane są aktualnie wykonywane programy i dane dla tych programów oraz wyniki ich pracy.

Zawartość większości pamięci RAM jest tracona kilka sekund po zaniku napięcia zasilania, niektóre typy wymagają także odświeżania, dlatego

wyniki pracy programów muszą być zapisane na innym nośniku danych.

Pamięci RAM dzieli się na pamięci statyczne (ang. Static RAM, w skrócie SRAM) oraz pamięci dynamiczne (ang. Dynamic RAM, w skrócie DRAM).

Pamięci statyczne są szybsze od pamięci dynamicznych, które wymagają ponadto częstego odświeżania, bez którego szybko tracą swoją zawartość.

Pomimo swoich zalet są one jednak dużo droższe i w praktyce używa się pamięci DRAM.

Pamięć RAM jest stosowana głównie jako pamięć operacyjna komputera, jako pamięć niektórych komponentów (procesorów specjalizowanych) komputera

(np. kart graficznych, dźwiękowych, itp.), jako pamięć danych sterowników mikroprocesorowych.

 

 

Współczesna pamięć RAM jest realizowana sprzętowo w postaci układów scalonych występujących w różnych technologiach lub jako fragmenty bardziej złożonych scalonych układów cyfrowych

(np. pamięć cache L1, L2 procesora, a ostatnio także L3) oraz w postaci różnych modułów, znajdujących głównie zastosowanie w komputerach. Wyróżnia się pamięci trwałe (NVRAM) i ulotne.

 

 

Pamięci nieulotne (Non-Volatile Random Access Memory)

 

·         FRAM – nośnikiem danych jest kryształ

·         MEMS – pamięć mikroelektromechaniczna

·         MRAM – nośnikiem danych są magnetyczne złącza tunelowe (konstrukcja prototypowa)

·         NRAMNanotube RAM – pamięć zbudowana z węglowych nanorurek (konstrukcja eksperymentalna)

·         OUM – pamięć oparta o zmiany stanu stopów pierwiastków rudotwórczych

·         PRAM – elementem pamięciowym jest kryształ (konstrukcja prototypowa)

 

 

 

 

 

 

Rozwój modułów pamięci używanych w komputerach PC

Wygląd
wielkość naturalna na monitorze 17" (1024x768)

Obudowa
Pamięć

Użycie

Rok

Opis: http://upload.wikimedia.org/wikipedia/commons/0/00/RAM_n-2.jpg

 

DIP

 

PC, XT, At

 

1981

 

 

SIPP

 

286, AT, 386

 

1983

 

 

 

SIMM (30-pinowe)

 

Niektóre 286, 386, 486

 

1994

 

SIMM (72-pinowe)

PS/2, 486, Pentium, AMD K6, AMD K5

1996

DIMM
SDR SDRAM

Niektóre Pentium, Pentium II, Pentium III, Pentium IV i Celeron, a także AMD K6

1997

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/d/df/RAMBUS-Memory.jpg/450px-RAMBUS-Memory.jpg

RIMM
Rambus

Pentium IV - po niecałym roku produkcji wycofane z powodu opłat licencyjnych oraz mniejszej niż zamierzano wydajności

1999

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/1/18/DDRSDRAM400-1GB.jpg/470px-DDRSDRAM400-1GB.jpg

DIMM
DDR

Pentium IV, Athlon, Duron, Sempron

1999

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/5/56/DRAM_DDR2_512.jpg/470px-DRAM_DDR2_512.jpg

DIMM
DDR2

Pentium IV, Pentium D, Intel Core 2, Athlon 64 AM2, Sempron AM2, Intel Atom

2003

DIMM
DDR3

Intel Core i7, Intel Core i5 Intel Core i3 AMD Phenom II, AMD Athlon II

2007

 

Przykład:

DDR3 SDRAM (ang. Double Data Rate Synchronous Dynamic Random Access Memory (ver. 3)) – nowy standard pamięci RAM typu SDRAM, będący rozwinięciem

pamięci DDR i DDR2, stosowanych w komputerach jako pamięć operacyjna.

Pamięć DDR3 wykonana jest w technologii 90 nm, która umożliwia zastosowanie niższego napięcia (1,5 V w porównaniu z 1,8 V dla DDR2 i 2,5 V dla DDR).

Dzięki temu pamięć DDR3 charakteryzuje się zmniejszonym poborem mocy o około 40% w stosunku do pamięci DDR2 oraz większą przepustowością w porównaniu

do DDR2 i DDR. Pamięci DDR3 nie są kompatybilne wstecz, tzn. nie współpracują z chipsetami obsługującymi DDR i DDR2. Posiadają także przesunięte wcięcie

w prawą stronę w stosunku do DDR2 (w DDR2 wcięcie znajduje się prawie na środku kości).

Obsługa pamięci DDR3 przez procesory została wprowadzona w 2007 roku w chipsetach płyt głównych przeznaczonych dla procesorów Intel oraz w 2009 roku w procesorach firmy AMD.

 

 

 

Dysk twardy – jeden z typów urządzeń pamięci masowej, wykorzystujących nośnik magnetyczny do przechowywania danych. Nazwa "dysk twardy" (hard disk drive) powstała

w celu odróżnienia tego typu urządzeń od tzw. "dysków miękkich", czyli dyskietek (floppy disk), w których nośnik magnetyczny naniesiono na elastyczne podłoże, a nie jak w dysku twardym na sztywne.

Pierwowzorem twardego dysku jest pamięć bębnowa. Pierwsze dyski twarde takie, jak dzisiaj znamy, wyprodukowała w 1980 firma Seagate, był on przeznaczony do

mikrokomputerów, miał pojemność 5 MB, to jest 5 razy więcej niż ówczesna dwustronna dyskietka ośmiocalowa.

Pojemność dysków wynosi od 5 MB (przez 10MB, 20MB i 40MB – dyski MFM w komputerach klasy XT 808x i 286) do 2 TB (w laptopach 20-1000 GB, w laptopach

z dwoma dyskami twardymi do 4000 GB). Małe dyski, o pojemnościach od kilkuset MB do kilku GB stosuje się współcześnie w kartach dla slotu Compact Flash (Microdrive)

do cyfrowych aparatów fotograficznych, a także w innych urządzeniach przenośnych. Pierwszy dysk twardy o pojemności 2 TB dla zwykłego użytkownika zaprezentowała firma

Western Digital na targach CeBIT-u w Hanowerze (3-8 marca 2009).

Dla dysków twardych najważniejsze są parametry: pojemność, szybkość transmisji danych, czas dostępu, prędkość obrotowa talerzy (obr/min.) oraz MTBF.

Kilka dysków twardych można łączyć w macierz dyskową, dzięki czemu można zwiększyć niezawodność przechowywania danych, dostępną przestrzeń na dane, zwiększyć szybkość odczytu/zapisu.

Opis: K:\Pobrane-z-Internetu\568px-Dysk_schemat_pl.png

Użycie sztywnych talerzy i uszczelnienie jednostki umożliwia większą precyzję zapisu niż na dyskietce, w wyniku czego dysk twardy może zgromadzić o wiele więcej danych niż dyskietka.

Ma również krótszy czas dostępu do danych i w efekcie szybszy transfer.

jest możliwa dzięki zastosowaniu łożyskowania FDB) i mieć średnią prędkość przesyłu danych na zewnątrz na poziomie 30 MB/s. W wydajnych serwerach i HI-Endowych stacjach

roboczych stosowane były dyski SCSI o prędkościach obrotowych na poziomie 15.000 obrotów na minutę.

odczytu NCQ. Stacje dyskietek zaczęły przegrywać z pamięciami USB do których złącza montuje się z przodu obudowy.

bardzo wysokiej ceny, duża wydajność dzięki minimalnemu czasowi dostępu do danych oraz malejąca cena za MB szybko zmieniła ich nastawienie.

Rozwijany jest standard SATA 3 na potrzeby dysków SSD.

 

Dysk stały składa się z zamkniętego w obudowie, wirującego talerza (dysku) lub zespołu talerzy, wykonanych najczęściej ze stopów aluminium, o wypolerowanej powierzchni pokrytej nośnikiem

magnetycznym (grubości kilku mikrometrów) oraz z głowic elektromagnetycznych umożliwiających zapis i odczyt danych. Na każdą powierzchnię talerza dysku przypada po jednej głowicy odczytu

i zapisu. Głowice są umieszczone na elastycznych ramionach i w stanie spoczynku stykają się z talerzem blisko osi, w czasie pracy unoszą się, a ich odległość nad talerzem jest stabilizowana dzięki

sile aerodynamicznej (głowica jest odpychana od talerza podobnie jak skrzydło samolotu unosi maszynę) powstałej w wyniku szybkich obrotów talerza. Jest to najpopularniejsze obecnie rozwiązanie

(są też inne sposoby prowadzenia głowic nad talerzami).

Ramię głowicy dysku ustawia głowice w odpowiedniej odległości od osi obrotu talerza w celu odczytu lub zapisu danych na odpowiednim cylindrze. Pierwsze konstrukcje (do ok. 200MB) były

wyposażone w silnik krokowy, stosowane również w stacjach dysków i stacjach dyskietek. Wzrost liczby cylindrów na dysku oraz konieczność zwiększenia szybkości dysków wymusił

wprowadzenie innych rozwiązań. Najpopularniejszym obecnie jest tzw. voice coil czyli cewka, wzorowana na układzie magnetodynamicznym stosowanym w głośnikach. Umieszczona w silnym

polu magnetycznym cewka porusza się i zajmuje położenie zgodnie z przepływającym przez nią prądem, ustawiając ramię w odpowiedniej pozycji. Dzięki temu czas przejścia między kolejnymi

ścieżkami jest nawet krótszy niż 1 milisekunda a przy większych odległościach nie przekracza kilkudziesięciu milisekund. Układ regulujący prądem zmienia natężenie prądu, tak by głowica

ustabilizowała jak najszybciej swe położenia w zadanej odległości od środka talerza (nad wyznaczonym cylindrem).

Informacja jest zapisywana na dysk przez przesyłanie strumienia elektromagnetycznego przez antenę albo głowicę zapisującą, która jest bardzo blisko magnetycznie polaryzowalnego materiału,

zmieniającego swoją polaryzację (kierunek namagnesowania) wraz ze strumieniem magnetycznym. Informacja może być z powrotem odczytana w odwrotny sposób, gdyż zmienne pole

magnetyczne powoduje indukowanie napięcia elektrycznego w cewce głowicy lub zmianę oporu w głowicy magnetyczno oporowej.

Ramiona połączone są zworą i poruszają się razem. Zwora kieruje głowicami promieniowo po talerzach a w miarę rotacji talerzy, daje każdej głowicy dostęp do całości jej talerza.

Zintegrowana elektronika kontroluje ruch zwory, obroty dysku, oraz przygotowuje odczyty i zapisy na rozkaz od kontrolera dysku. Niektóre nowoczesne układy elektroniczne są zdolne

do skutecznego szeregowania odczytów i zapisów na przestrzeni dysku oraz do remapowania sektorów dysku, które zawiodły.

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/8/8f/Hard_disk_head_crash.jpg/220px-Hard_disk_head_crash.jpg

 

uszkodzenia głowicy

Obudowa chroni części napędu od pyłu, pary wodnej, i innych źródeł zanieczyszczenia. Jakiekolwiek zanieczyszczenie głowic lub talerzy może doprowadzić do uszkodzenia głowicy

(head crash), awarii dysku, w której głowica uszkadza talerz, ścierając cienką warstwę magnetyczną. Awarie głowicy mogą również być spowodowane przez błąd elektroniczny uszkodzenie ,

zużycie i zniszczenie, błędy produkcyjne dysku.

 

Dyski RAM to dyski, w których do zapisu danych stosuje się rozwiązania wykorzystujące popularne pamięci RAM, dzięki którym osiąga się krótki czas dostępu i bardzo szybki transfer danych, którego

wartości przekraczają przepustowość oferowaną przez typowe interfejsy dla dysków twardych, takie jak Ultra ATA czy Serial ATA. Zasadniczą wadą takich dysków jest utrata zapisanych danych przy

zaniku napięcia (np. przy wyłączeniu komputera), dlatego też stosuje się pomocnicze źródła prądu podtrzymujące pracę dysków: wbudowane akumulatory i zewnętrzne zasilacze.
Dotychczas zaproponowane rozwiązania to:
– dysk zabudowany na karcie PCI (dysk iRAM)
– dysk w standardowej obudowie 5.25"
– dysk na karcie rozszerzeń ISA, zawierający własne akumulatory oraz gniazdo niewielkiego zewnętrznego zasilacza podtrzymującego układy i ładującego akumulatory.

 

Strategie szeregowania dysku

i przetwarzane po zakończeniu skanowania zadań z pierwszej podkolejki.

 

Sposoby adresowania danych na dysku

 

 

Karta graficznakarta rozszerzeń komputera generująca sygnał dla ekranu monitora. Podstawowym zadaniem karty graficznej jest odbiór i przetwarzanie otrzymywanych

od komputera informacji o obrazie oraz odpowiednie wyświetlanie tegoż obrazu za pośrednictwem monitora.

Podzespół ten jest też nazywany terminem karta VGA. Określenie to jest poprawne, choć nieco anachroniczne.

Pierwsze karty graficzne potrafiły jedynie wyświetlać znaki alfabetu łacińskiego ze zdefiniowanego w pamięci karty generatora znaków – tryb tekstowy.

Kolejna generacja kart graficznych potrafiła już wyświetlać w odpowiednim kolorze poszczególne punkty (piksele) – tryb graficzny.

Nowoczesne procesory graficzne udostępniają wiele funkcji ułatwiających i przyśpieszających pracę programów. Możliwe jest narysowanie odcinka, trójkąta, wieloboku,

wypełnienie ich zadanym kolorem lub wzorem, tzw. akceleracja 2D.

Większość kart na rynku posiada również wbudowane funkcje ułatwiające tworzenie obrazu przestrzeni trójwymiarowej, tzw. akceleracja 3D. Niektóre posiadają zaawansowane

algorytmy potrafiące na przykład wybrać tylko widoczne na ekranie elementy z przestrzeni.

 

Wyróżniamy dwa typy GPU:

Przystosowane do pracy jako oddzielne karty graficzne:

Zintegrowane z mostkiem północnym:

W komputerach PC karty graficzne są najczęściej niezintegrowane z płytą główną (jest możliwa ich wymiana). Wadą kart zintegrowanych jest niemożność ich wymiany oraz

znacznie słabsze wyniki w porównaniu z kartami niezintegrowanymi (spowodowane jest to m.in. koniecznością umieszczenia karty zintegrowanej na płycie głównej,

a nie jako kartę rozszerzeń, a co za tym idzie - znaczne jej zmniejszenie).

 

Wraz z pojawieniem się kart Voodoo firmy 3dfx, które znacznie przyspieszały wyświetlanie grafiki trójwymiarowej, pojawił się termin akcelerator graficzny.

Karty te wymagały bowiem obecności w komputerze zwykłej karty graficznej.

Pozostali producenci zdecydowali się na integrację akceleratorów grafiki trójwymiarowej z samymi kartami graficznymi, podobnie jak to miało miejsce z akceleratorami

grafiki dwuwymiarowej. Później także firma 3dfx zdecydowała się zintegrować swoje akceleratory z kartami graficznymi.

 

Najważniejsze funkcje współczesnych akceleratorów graficznych to:

Poza tym karty graficzne oferują inne sprzętowe efekty, jak mgła, przezroczystość (dodatkowy kanał Alpha).

 

Większość kart graficznych (i wszystkie współczesne) składają się z następujących elementów:

dla monitora analogowego; w przypadku kart wyłącznie z wyjściem cyfrowym DAC nie ma zastosowania.

Wiele z kart graficznych posiada także:

 

Większość kart graficznych do poprawnego działania potrzebuje układu chłodzenia. Najwięcej ciepła wytwarza GPU dlatego montuje się na nie same radiatory (chłodzenie pasywne) bądź

z wiatrakiem lub turbiną (chłodzenie aktywne) która używana jest w chłodzeniach referencyjnych. Jej plusem jest to, że ogrzane powietrze jest wypuszczane po za obudowę komputera ponieważ

radiator jest zabudowany plastikową obudową. Jest wydajna przy wyższych obrotach co wiąże się z dużym hałasem. Firma NVIDIA na procesor graficzny nakłada IHS czyli aluminiową

osłonę mającą na celu lepsze rozpraszanie ciepła oraz chronić procesor przed uszkodzeniami. Następnym elementem wydzielającym ciepło są pamięć RAM karty graficznej. Często chłodzi je

ten sam radiator co GPU. W starszych modelach kart pamięci nie posiadają dodatkowego chłodzenia. Na nowszych kartach posiadających dodatkowe złącza PCIe 6 pin lub 8 montowane

są radiatory na sekcje zasilania. Jest ona chłodzona pasywnie. W radiatorach coraz częściej dodatkowo są montowane Heat pipe dla poprawienia wydajności układu chłodzenia. Nowsze

karty graficzne NVIDII wydzielają więcej ciepła niż karty firmy AMD. Na referencyjnym chłodzeniu temperatura GPU waha się od około 40 - 100 stopni. Możliwa jest wymiana radiatora

standardowego na chłodzenie wodne bądź inny, większy, bardziej wydajny radiator co podniesie karcie podatność na overclocking.

 

Monitor - urządzenie wyjściowe, podłączone do komputera będące źródłem światła, wyświetlające na własnym ekranie obraz oglądany z drugiej strony przez oglądającego.

Wyróżnia się monitory lampowe (kineskopowe) - CRT, monitory oparte na ciekłych kryształach (LCD), oraz monitory plazmowe.

Monitory mają zastosowanie jako: monitory komputerowe, ekrany wystawiennicze, monitory telewizyjne itd.

Monitory mają zastosowanie jako: monitory komputerowe, ekrany wystawiennicze, monitory telewizyjne itd.

Typowe parametry monitorów to:

zainstalowanej w komputerze karty graficznej, która bezpośrednio decyduje o jakości wyświetlanego obrazu.

rośnie wraz z przekątną ekranu (0,28 mm - 21 calowe; 0,25 mm - 15 calowe), ze względu na różny sposób pomiaru wielkości plamki monitorów CRT parametr ten może być mylący,

dla monitorów LCD jest prostą funkcją rozdzielczości maksymalnej i przekątnej ekranu;

Dla uzyskania najlepszej możliwej jakości obrazu warto chwilę poeksperymentować. Wysokie częstotliwości odświeżania mogą powodować rozmycie obrazu, co jest szczególnie widoczne na niskiej

jakości monitorach lub kartach graficznych, dlatego często warto obniżyć odświeżanie np ze 120Hz do 100Hz. Przy tej samej karcie graficznej częstotliwość odświeżania jest odwrotnie proporcjonalna

do rozdzielczości, czyli im większa rozdzielczość tym mniejsza częstotliwość odświeżania.

poziomego, maksymalnej rozdzielczości w poziomie oraz częstotliwości odświeżania ekranu;

Niektóre dodatkowe zalety jakie może posiadać monitor:

osobno dla każdego trybu odświeżania i dla każdej rozdzielczości. Sterowanie cyfrowe jest precyzyjniejsze i zapewnia dużą wygodę obsługi;

 

Karta dźwiękowa (ang. sound card, audio card) jest to komputerowa karta rozszerzeń, umożliwiająca rejestrację, przetwarzanie i odtwarzanie dźwięku. Poprawnym jest też równie często stosowany termin karta muzyczna.

Najbardziej znaną grupą kart dźwiękowych jest seria Sound Blaster firmy Creative Labs.

Obecnie układy dźwiękowe wystarczające do zastosowań amatorskich są zazwyczaj wbudowywane w płytę główną komputera, a nie stanowią karty rozszerzenia.

Pojawiły się również zewnętrzne karty dźwiękowe podłączane do komputera przez port USB.

 

Karty dźwiękowe w zależności od stopnia skomplikowania i zaawansowania mogą posiadać następujące elementy:

szumu, służył do sprzętowego generowania dźwięków za pomocą modulacji i łączenia fal oraz szumu

główny komputer, lub odtwarzany po uprzedniu wgraniu tam dan

 

Pojęciem próbkowania (sampling) określa się digitalizację fragmentów dźwiękowych. Decydujący wpływ na jakość nagrania ma rozdzielczość digitalizacji. Starsze karty zapisują dźwięk

w trybie 8-bitowym, co pozwala na rozróżnienie 256 różnych wartości dźwięku. Z uwagi na fakt, że taki zakres jest zbyt mały, by uzyskać dobrą jakość, nowsze karty pracują już

z rozdzielczością 16 bitową. W przypadku nagrań stereofonicznych każdy pojedynczy dźwięk (sample) jest więc zapisywany na 4 bajtach. Takie rozwiązanie pozwala na rozróżnienie

65536 różnych wartości dla każdego kanału stereo, dzięki czemu generowany dźwięk ma już naturalne brzmienie o jakości hi-fi. Równie istotna jest szybkość próbkowania (samplingu),

czyli częstotliwość z jaką generowane są kolejne 16-bitowe sekwencje. Im częściej jest próbkowany oryginalny dźwięk, tym wyższa jest górna częstotliwość uzyskiwanego nagrania.

Częstotliwość samplingu rzędu 8 kHz odpowiada w przybliżeniu poziomowi jakości rozmowy telefonicznej natomiast do uzyskania jakości płyty CD potrzebna jest częstotliwość 44,1 kHz

(pozwala to na rekonstrukcję dźwięku aż do częstowlitości 22 kHz, co jest powyżej górnej granicą słyszalności dźwięków przez człowieka, tj. około 20 kHz). W przypadku nagrań

stereofonicznych objętość zapisywanych danych ulega podwojeniu. Jednominutowe nagranie klasy hi-fi bez kompresji danych zajmuje więc nieco ponad 10 MB (44100 × 4 bajty x 60 sekund).

Jeszcze większą objętość mają dane uzyskane w wyniku miksowania (mieszania) próbek. Niektóre gry oferują możliwość definiowania kilku różnych dźwięków. Dzięki temu można na

przykład słuchać podczas gry odgłosów pięciu przeciwników jednocześnie. Zadania tego zwykle nie wykonuje jednak karta dźwiękowa, lecz procesor komputera co negatywnie wpływa

na płynność działania samej gry. Maksymalną liczbę dostępnych głosów warto więc wykorzystywać tylko na bardzo szybkich komputerach, lub profesjonalnych kartach ze sprzętowym

miksowaniem (analogowym lub cyfrowym - odciąża to procesor od miksowania, ale wymaga przesłania większej ilości danych do karty dźwiękowej i większych buforów na niej).

Karty muzyczne nie tylko nagrywają i odtwarzają gotowe dźwięki, lecz również tworzą je samodzielnie za pomocą syntezy FM (modulacji częstotliwości). Pierwszym chipem muzycznym

wykorzystującym syntezę FM był układ OPL2 firmy Yamaha. Chip ten nie był przeznaczony dla komputerów, lecz podobnie jak OPL1 został opracowany pod kątem organów elektronicznych.

Gdy jednak model OPL2 odniósł ogromny sukces rynkowy, firma Yamaha skonstruowała specjalnie dla kart dźwiękowych kolejny układ – OPL3. Początkowo na rynku dostępne były

tylko dwa chipy FM (OPL 2 i 3), ale w 1995 r. patent na syntezę modulacji częstotliwości uległ przedawnieniu. Od tego czasu na kartach dźwiękowych instaluje się różne chipy,

w większości kompatybilne z OPL3, a więc również ze standardem Sound Blaster. Wszystkie układy FM działają na tej samej zasadzie: za pomocą prostych funkcji matematycznych

generują krzywe drgań, które tylko w przybliżeniu imitują działanie oryginalnych instrumentów muzycznych. W każdym przypadku umożliwiają jednak odtwarzanie plików MIDI.

Pliki te – podobnie jak tradycyjna partytura – zawierają bowiem tylko opisy dźwięków instrumentów i efektów, a nie autentyczne dźwięki.

Z uwagi na sztuczne brzmienie generowanych dźwięków synteza FM nie nadaje się do zastosowań ogólnych, np. naśladowania prawdziwych realistycznych instrumentów.

Z tego tez względu używa się techniki syntezy wavetable (WT), znanej też pod nazwą AWM (Advanced Wave Memory). Zasada działania syntezy WT jest bardzo prosta.

W celu uzyskania na przykład brzmienia gitary chip muzyczny nie generuje sztucznego dźwięku, lecz odtwarza oryginalny dźwięk instrumentu, nagrany wcześniej w studiu.

W praktyce nie ma jednak możliwości zapisania w pamięci wszystkich dźwięków generowanych przez 128 instrumentów MIDI. Chip muzyczny musi więc często obliczać wysokość

i długość dźwięków na podstawie wzorcowych próbek. Z zadaniem tym poszczególne karty WT radzą sobie bardzo różnie. W niektórych modelach można np. uzyskać lepsze

brzmienie instrumentów smyczkowych w innych instrumentów dętych. Naprawdę dobre brzmienie dla wszystkich odmian muzyki oferują jak dotąd tylko drogie karty profesjonalne.

Niektóre karty umożliwiają użycie dla każdej częstotliwości oddzielnych próbek, jednak zwiększa to zużycie pamięci (dlatego profesjonalne karty mogą posiadać nawet setki

megabajtów pamięci RAM, którą można rozszerzać), oraz wymaga czasochłonnego procesu rejestracji próbek w studiu.

Koncepcja cyfrowego złącza instrumentów muzycznych (MIDI), wprowadzona we wczesnych latach 80., zrewolucjonizowała rynek, przerastając z czasem oczekiwania swych twórców.

MIDI pozwala na wymianę informacji i synchronizację sprzętu muzycznego za pomocą standardowych komunikatów, tworząc spójny system sterowania zestawem muzycznym.

Komunikaty MIDI mogą być proste (np. włącz dźwięk pianina na 5 sekund), lub złożone (np. zwiększyć napięcie wzmacniacza VCA w generatorze 6, aby dopasować częstotliwość do generatora nr 1).

Należy tutaj pamiętać, że MIDI nie przesyła dźwięku, lecz informacje o nim (i nie tylko). Na przykład muzyk w czasie koncertu naciśnięciem klawisza może wydobyć nie tylko dźwięk,

ale również może synchronicznie sterować błyskami światła, sekwenserami, modułami brzmieniowymi itp. – oczywiście pod warunkiem, że wymienione urządzenia będą zgodne ze

standardem MIDI. Posiadając w komputerze kartę dźwiękową FM czy też WT, mamy, praktycznie rzecz biorąc, do czynienia z modułem brzmieniowym syntezatora muzycznego.

Komunikację z owym modułem zapewnia port MIDI oraz programy zwane sekwencerami. Sekwencery umożliwiają też edycję zapisu cyfrowego MIDI w postaci standardowych

plików (z rozszerzeniem MID).

Specyfikacja MIDI umożliwia sterowanie 16 urządzeniami MIDI jednocześnie. Sekwencer łączy funkcję magnetofonu wielośladowego i pulpitu mikserskiego.

Poszczególne partie instrumentów nagrywa się na ścieżkach (może ich być 128 i więcej). Niezaprzeczalną zaletą MIDI jest oszczędność pamięci – skoro przesyłane

są tylko dane dotyczące dźwięku, minuta muzyki wymaga zaledwie około 20 kB danych. MIDI ma pod tym względem ogromną przewagę nad cyfrową techniką zapisu dźwięku,

przetworzonego przez konwertery analogowo-cyfrowe na twardym dysku.

Pierwszą implementacją standardu MIDI na platformie PC był interfejs MPU-401 firmy Roland, później pojawiła się specyfikacja MT32, wreszcie General MIDI, wprowadzający jednolity rozkład brzmień.

Kolory gniazd i wtyków

Kolor

Funkcja

 

różowy

Analogowe wejście dla mikrofonu.

 

błękitny

Analogowe wejście audio. (line-in)

 

jasnozielony

Analogowe wyjście dla głośników albo słuchawek, w systemach wielogłośnikowych wyjście dla przednich głośników

 

czarny

Analogowe wyjście dla głośników tylnych.

 

pomarańczowy

Cyfrowe wyjście dźwięku (S/PDIF), czasami tym kolorem oznacza się analogowe wyjście dla głośników centralnego i niskotonowego.

 

Karta sieciowa (ang. NIC - Network Interface Card) - karta rozszerzenia, która służy do przekształcania pakietów danych w sygnały, które są przesyłane w sieci komputerowej.

Karty NIC pracują w określonym standardzie, np. Ethernet, Token Ring, FDDI, ArcNet, 100VGAnylan.

Dla większości standardów karta NIC posiada własny, unikatowy w skali światowej adres fizyczny, znany jako adres MAC, przyporządkowany w momencie jej produkcji przez producenta,

zazwyczaj umieszczony na stałe w jej pamięci ROM. Adres ten można dynamicznie zmieniać o ile stosowane oprogramowanie na to pozwala. Zmiana tak obowiązuje do restartu

komputera (lub samego oprogramowania sieciowego). Karty sieciowe standardu ArcNet miały adres MAC ustawiany ręcznie za pomocą mikroprzełączników umieszczonych na

karcie (zwykle dostępnych z zewnątrz poprzez wycięcie w "śledziu").

Karta sieciowa pracuje tylko w jednym standardzie np. Ethernet. Nie może pracować w dwóch standardach jednocześnie np. Ethernet i FDDI. Obecnie ze względu na wyraźną

dominację standardów rodziny Ethernet pojęcie karty sieciowej i karty Ethernet bywa mylnie utożsamiane. Karty sieciowe, podobnie jak switche są elementami aktywnymi sieci.

Zdarzają się karty sieciowe wielokrotne, tj. wyposażone w kilka interfejsów sieciowych. Z logicznego punktu widzenia jest to kilka niezależnych kart sieciowych na jednej płycie drukowanej.

Karty takie znajdują głównie zastosowanie w serwerach. W przeszłości istniała nawet karta wyposażone w dwa różne standardy sieciowe, tj. Ethernet i Token Ring (karta OSA-2 ETR

do maszyn IBM mainframe rodziny 9672, 2 logiczne porty każdy mógł pracować jako Eth, lub Token Ring, ale miały oddzielne wtyki), jednakże był to ewenement.

 

 

 

 

 

 

 

Modem (od ang. MOdulator-DEModulator) - urządzenie elektroniczne, którego zadaniem jest zamiana danych cyfrowych na analogowe sygnały elektryczne (modulacja) i na odwrót

(demodulacja) tak, aby mogły być przesyłane i odbierane poprzez linię telefoniczną (a także łącze telewizji kablowej lub fale radiowe). Jest częścią DCE (Data Communications Equipment),

które w całości wykonuje opisane wyżej czynności. Nieodzowne do współpracy jest DTE (Data Terminal Equipment) i to dopiero stanowi całość łącza przesyłania danych.

Dzięki modemowi można łączyć ze sobą komputery i urządzenia, które dzieli znaczna odległość.

W najstarszych modemach dane były zamieniane na przerywane dźwięki o częstotliwości 5 kHz i składały się z przetwornika elektrycznego, głośnika i mikrofonu.

W urządzenie to wkładało się zwykłą słuchawkę telefoniczną, która ponownie przetwarzała dźwięki na impulsy elektryczne. W tamtych czasach firmy telefoniczne dopuszczały

przesyłanie torem telefonicznym tylko sygnałów o przebiegu sinusoidalnym, co znacznie ograniczało dopuszczalne prędkości transmisji. Pierwsze modemy miały prędkość transmisji 300 bodów.

Współczesne modemy generują wprost impulsy elektryczne, które przesyłane są bezpośrednio do kabla telefonicznego bez pośrednictwa jakichkolwiek głośników i mikrofonów.

Współczesne modemy wykorzystujące sieć telefoniczną nie generują przerywanych dźwięków o stałej częstotliwości, lecz sygnał jest kodowany za pomocą modulowanych fal

o częstotliwości od 5 do 15 kHz. Górna, fizyczna granica szybkości przesyłu informacji od centrali do abonenta przez zwykłe łącze telefoniczne to 56 kb/s, co można osiągnąć

za pomocą protokołów takich jak K56Flex i X2. Wartość ta wynika z tego, że wewnątrz centrali sygnał przesyłany jest cyfrowo w standardzie: poziom: 8 bitów, częstotliwość:

8 kHz, jeden bit musi być wykorzystany jako zegar i dlatego maksymalna prędkość transmisji jest równa 56 kb/s.

Publiczną sieć telefoniczną wykorzystuje się również do znacznie szybszych połączeń, wymaga to jednak stosowania odpowiednich urządzeń na centrali telefonicznej.

Inne urządzenia do przesyłania danych cyfrowych w mediach, które pierwotnie lub z głównego założenia nie są cyfrowe, także nazywa się modemami.

Przykładowo modemy stosuje się również do połączeń innych niż sieć telefoniczna, np. sieć telewizji kablowej, czy łącza dedykowane.

Modem może być:

Inną klasyfikację dokonuje się ze względu na medium. Wyróżniamy modemy:

 

 

Napęd optyczny – jest to urządzenie, które za pomocą wiązki lasera odczytuje dane z następujących nośników: CD (-R, -RW), DVD (-R, -RW, +R, +RW) lub najnowszych Blu-ray Disc.

Prędkość napędów optycznych podaje się w wielokrotnościach podstawowej prędkości 1x, która odpowiada przepustowości 150 kB/s (napędy CD), 1350 kB/s (napędy DVD)

lub 5234 kB/s (napędy Blu-Ray). Np. maksymalny transfer CD-ROM-u o prędkości 8x wynosi 1,2 MB/s.

Napęd optyczny może znajdować się w komputerze lub może też stanowić odrębne, zewnętrzne urządzenie podłączane do komputera.

Gniazda

Popularne prędkości napędów CD/DVD/Blu-ray

Prędkość

CD

DVD

Blu-Ray

kB/s

MB/s

kB/s

MB/s

kB/s

MB/s

1x

150

0,15

1350

1,32

5234

5,23

2x

300

0,29

2700

2,64

10468

10,46

4x

600

0,59

5400

5,27

20936

20,93

8x

1200

1,17

10800

10,55

41872

41,87

16x

2400

2,34

21600

21,09

83744

83,74

24x*

3600

3,52

32400

31,64

167488

167,48

40x*

6000

5,86

54000

52,73

334976

334,98

42x*

6300

6,15

56700

55,37

669952

669,95

48x*

7200

7,03

64800

63,28

1339904

1339,90

52x*

7800

7,62

70200

68,55

2679808

2678,08

 

Płyta kompaktowa (ang. Compact Disc, CD-ROMCompact Disc – Read Only Memory) — poliwęglanowy krążek z zakodowaną cyfrowo informacją do bezkontaktowego

odczytu światłem lasera optycznego. Zaprojektowany w celu nagrywania i przechowywania dźwięku, przy użyciu kodowania PCM, który dzisiaj jest tylko jednym ze standardów

cyfrowego zapisu dźwięku. Taką płytę nazywa się CD-Audio. Dzięki dużej jak na swoje czasy pojemności, niezawodności i niskiej cenie, dysk kompaktowy stał się

najpopularniejszym medium do zapisywania danych.

Standardowa płyta CD ma średnicę 120 mm i jest w stanie pomieścić 700 MB danych lub 80 minut dźwięku.

Płyta kompaktowa została opracowana wspólnie przez koncerny Philips i Sony.

Technologia tworzenia nośnika pozwala na klasyfikację:

Poza tym są jeszcze płyty CD 8 cm i płyty w kształcie wizytówki, są mniejsze rozmiarami i mają mniejsze pojemności.

Proces wytwarzania pitów na warstwie nośnej to proces zapisu danych na płycie, barwnik i warstwa nośna zostają podgrzane przez laser, którego moc wynosi od 4 do 11 mW.

Temperatura uzyskana podczas pracy wynosi ok. 250 stopni Celsjusza, pod jej wpływem warstwa nośna topnieje a barwnik jest rozprzestrzeniany na wolne obszary dysku.

Początkowo laser generuje wyższą moc aby uległ stopieniu barwnik, ale w momencie gdy już to nastąpi następuje zmiana mocy, umożliwiającą zapis danych.

Podstawową warstwę płyty CD przed zapisem tworzy powłoka polikrystaliczna, podczas procesu nagrywania, laser rozpoczyna podgrzewanie obszarów nagrywanej ścieżki do

temperatury od 500 – 700 stopni Celsjusza a moc lasera waha się w granicach od 8 do 14 mW. Laser roztapia kryształy tworząc z nich warstwę amorficzną tzw. pity te mają słabsze

właściwości odbijania światła a to prowadzi do możliwości rozróżnienia tych obszarów, podczas odczytu danych przez czytniki CD-ROM oraz stacjonarne CD.

Proces kasowania danych na płytach CD-RW to droga powrotna ze stanu amorficznego do stanu krystalicznego nośnika. Jest to możliwe po uzyskaniu temperatury 200 stopni

Celsjusza poniżej stanu topnienia oraz utrzymania tego stanu na okres ok. 37 minut. Ten zabieg powoduje że płyta CD-RW wraca do stanu nie nagranego czystego nośnika.

Aby szybciej skasować dane na płycie, stosuje się metodę polegającą na kasowaniu ostatniej nagrywanej ścieżki tj. wymazaniu subkodu mapy dysku, w której zamieszczone są

informacje na temat, rozlokowania danych na płycie. Dane pozostają nienaruszone, ale czytniki rozpoznają płytę jako niezapisaną.

Połączenie dwóch technik zapisu jak i kasowania danych na płytach CD-RW, doprowadziło do procesu nadpisywania informacji. Do zapisu nowych pitów jest używana tak sama

energia lasera ja w przypadku zwykłego zapisu, ale pomiędzy starymi pitami a nowymi powstaje krystaliczna warstwa utworzona, po zmniejszeniu mocy lasera.

Ta metoda kasuje poprzednie informacje na płycie a zapisuje nowe.

Tak jak w technice zapisu płyty laser wytwarza wyższą temperaturę roztapiając warstwę nośną, na granicy dwóch pitów laser obniża temperaturę. Płyta kompaktowa może służyć

do zapisu muzyki, filmu (Video CD albo Super Video CD) lub danych – plików komputerowych. Płyty z danymi są zwykle zapisane z użyciem systemu plików ISO 9660

(wcześniej zwanym High Sierra). Format ten ogranicza nazwy plików do stylu MS-DOS-a (8+3). Joliet pozwala na dłuższe nazwy plików i zagłębienia w strukturze katalogów

powyżej ośmiu poziomów. Rock Ridge tak jak Joliet wykorzystuje niezdefiniowane pola w standardzie ISO 9660, aby obsługiwać dłuższe nazwy i dodatkowo

informacje typowo uniksowe (właściciel pliku, symboliczne dowiązania itp.)

 

 

 

 

 

 

 

 

 

 

 

Standardowa płyta kompaktowa mieści 74 minuty muzyki, zapisanej przy użyciu kodowania PCM, co odpowiada 650 MB danych. Standardowo dźwięk na płycie CD nie jest

poddawany kompresji. Powstały również nośniki mieszczące: 700 MB (80 min.) – obecnie najpopularniejsze w sprzedaży, 800 MB (90 min.), 870 MB (99 min.), a nawet 1,4 GB

– płyty dwuwarstwowe, przy czym dwie ostatnie występują niemal wyłącznie jako płyty jednokrotnego zapisu. Wśród płyt pierwotnie tłoczonych (komercyjnych) dominują

wyłącznie rozmiary 650 MB, 700 MB. Rozmiar 800 MB jest dosyć rzadko spotykany. Płyty większe niż 700 MB często sprawiają problemy podczas odczytu, zwłaszcza w starszych odtwarzaczach.

Płyta ma średnicę 120 mm, grubość 1.2 mm i przeciętnie waży ok. 15 g (standard CD Audio Red Book dopuszcza wagę od 14.1 g do 33 g). Długość spirali z zapisanymi danymi

na typowej płycie to ok. 5,4 km (dla DVD ok. 11,6 km).

 

DVD (Digital Video Disc lub Digital Versatile Disc) – standard zapisu danych na optycznym nośniku danych, podobnym do CD-ROM (te same wymiary: 12 lub 8 cm)

lecz o większej pojemności uzyskanej dzięki zwiększeniu gęstości zapisu.

Płyty DVD dzielą się na przeznaczone tylko do odczytu DVD-ROM oraz umożliwiające zapis na płycie DVD-R, DVD-R DL, DVD-RW, DVD+R, DVD+R DL, DVD+RW, DVD-RAM.

Nazwa DVD powstała jako skrótowiec nieoficjalnej nazwy Digital Video Disc (ang. Cyfrowy Dysk Video). W późniejszym okresie podawano rozwinięcie owego skrótu

jako Digital Versatile Disccyfrowy dysk ogólnego przeznaczenia. Żadna z tych nazw nigdy nie miała oficjalnego statusu. Nazwą oficjalną jest tylko DVD.

 

 

 

 

 

 

 

 

 

 

 

Nośniki w zależności od typu mogą pomieścić od 4,38 gigabajtów (jednowarstwowe, jednostronne płyty, powszechnie znane jako DVD5) do ponad 17 GB danych (płyty dwuwarstwowe, dwustronne).

Najbardziej obrazowo pojemność płyt DVD przedstawia poniższa tabelka:

Standard

DVD5

DVD9

DVD10

DVD18

Średnica płyty

12 cm

12 cm

12 cm

12 cm

Liczba stron

1

1

2

2

Liczba warstw

1

2

1

2

Pojemność

4,38 GiB
(4,7 GB)

7,90 GiB
(8,5 GB)

8,75 GiB
(9,4 GB)

15,90 GiB
(17,08 GB)

Czas trwania filmu video MPEG-2

2 godziny

4 godziny

4 godziny

7 godzin 15 minut

 

 

Dodatkowo krążki -R i +R różnią się nieznacznie pojemnością (dane dla 12cm):

Typ Dysku

Liczba sektorów

bajtów

MiB

GB

GiB

Szybkość

DVD-R SL

2 298 496

4 707 319 808

4 489,25

4,7

4,384

16x

DVD+R SL

2 295 104

4 700 372 992

4 482,625

4,7

4,378

16x

DVD-R DL

4 171 712

8 543 666 176

8 147.875

8,5

7,957

8x

DVD+R DL

4 173 824

8 547 991 552

8 152

8,5

7,961

8x

 

Blu-ray Disc (BD) – konkurencyjny dla HD DVD format zapisu optycznego, opracowany przez Blu-ray Disc Association (BDA). Następca formatu DVD.

Wyróżnia się większą pojemnością od płyt DVD, co jest możliwe dzięki zastosowaniu niebieskiego lasera.

Ten nowy typ nośnika pozwala na zapisanie 25 GB danych na płytach jednowarstwowych. W użytku są również płyty dwuwarstwowe o pojemności 50 GB. Istnieją płyty

czterowarstwowe mieszczące do 100 GB oraz ośmiowarstwowe, na których można zapisać 200 GB informacji. Pioneer opatentował płytę szesnastowarstwową, która mieści

do 400 GB danych. Do zapisywania na tym nośniku jest używany niebieski laser (w nagrywarkach DVD używany jest czerwony laser).

Podstawową różnicą pomiędzy tymi laserami jest długość fali – czerwony ma 650 albo 635 (nanometrów), podczas gdy niebieski tylko 405 nm.

Wykorzystywane do zapisu na DVD lasery czerwone i wykorzystywane przez CD lasery podczerwone, wytwarzają światło o długości fali odpowiednio 640 i 790 nm.

By udoskonalić zapis wykorzystano światło o długości fali 405 nm, a więc światło fioletowe, choć utarło się, że mamy do czynienia z laserem niebieskim. Niebieskie światło ma

długość fali zbliżoną do 460 nm. Mniejsza długość fali pozwala na zmniejszenie rozmiaru pitów, a co za tym idzie daje to możliwość gęstszego zapisywania danych na jednostce powierzchni nośnika.

Dysk Blu-ray ma dwie warstwy: pierwsza o grubości 1,1 mm, druga – zapisywalna – o grubości 0,1 mm. Minimalna długość wgłębienia wynosi 0,15 µm. Przerwa między

ścieżkami to 0,32 µm, a średnica plamki lasera wynosi 0,48 µm. BD-ROM wymagają specjalnej, mocnej warstwy ochronnej dla ścieżki zapisu, która leży na głębokości zaledwie 0,1 mm.

Istnieją wersje BD-ROM (Read Only Memory), BD-R (Recordable) i BD-RE (REwritable, do 1000 zapisów).

Wytwórnie filmowe, główni zainteresowani technologią Blu-Ray, wprowadziły – podobnie jak w technice DVD – regionizację świata w celu umożliwienia sobie manipulowania

datami premier filmów w różnych częściach świata oraz stosowania zróżnicowanych cen na różnych rynkach. Świat został podzielony na trzy regiony.

Zarówno płyty jak i odtwarzacze przeznaczone do użytku w danym regionie są oznaczone jego kodem. Odtwarzacz może odczytywać wyłącznie płyty oznaczone takim samym kodem jak on.

Naturalną odpowiedzią było pojawienie się na rynku odtwarzaczy, wytwarzanych przez niezależnych producentów, które odczytują płyty z dwóch lub nawet wszystkich regionów.

 

Kod regionu

Terytorium

A

Ameryka Północna, Ameryka Centralna, Ameryka Południowa, Japonia, Korea Północna, Korea Południowa, Hongkong oraz Azja Południowo-Wschodnia.

B

Europa (bez Rosji, Białorusi, Ukrainy), Grenlandia, Francuskie terytoria zamorskie, Bliski Wschód, Afryka, Australia oraz Nowa Zelandia.

C

Indie, Bangladesz, Nepal, Chiny, Pakistan, Rosja, Azja Centralna oraz Azja Południowa.

 

Stacja dyskietek (FDD; Floppy Disk Drive) – element komputera przeznaczony do obsługi jednego z rodzajów zewnętrznej pamięci komputerowej, jakim jest dyskietka.

Stacje dyskietek zwane są stacjami dysków miękkich.

W komputerach osobistych używane były następujące rodzaje stacji dyskietek:

Obecnie ich rolę przejęły nagrywalne płyty CD i DVD, a także coraz powszechniejsze nośniki USB. Dzisiaj stacje dyskietek nie są już standardowo montowane w komputerach,

jednak w starszych systemach bez nich nie jest możliwe przywrócenie systemu z kopii zapasowej lub wykonanie niektórych innych istotnych operacji bez rozkręcania komputera.

 

 

Czytnik kart pamięci − to urządzenie przenośne umożliwiające odczyt kart pamięci typu Flash.

Jest to najczęściej urządzenie zintegrowane z płytą główną komputera, bądź podłączane do niego przez port USB; nie wymaga zewnętrznego zasilania.

Urządzenia tego typu obsługują najczęściej następujące karty:

Często potrafią obsłużyć jednocześnie kilka rodzajów kart pamięci.

 

 

Zasilacz komputera − urządzenie, które służy do przetwarzania napięcia zmiennego dostarczanego z sieci energetycznej (100-127V w Ameryce Północnej, części Ameryki Południowej,

Japonii i Tajwanie, 220-240V w pozostałej części świata) na niskie napięcia stałe, niezbędne do pracy pozostałych komponentów komputera. Niektóre zasilacze posiadają przełącznik

zmieniający napięcie wejściowe pomiędzy 230V i 115V, inne automatycznie dopasowują się do dowolnego napięcia z tego zakresu.

Najczęściej spotykane zasilacze komputerowe są dostosowane do standardu ATX. Włączanie i wyłączenie zasilacza jest sterowane przez płytę główną, co daje obsługę takich funkcji

jak tryb czuwania. Najnowsza wersja standardu ATX dla zasilaczy to 2.31 (z połowy roku 2008).

Warto zwrócić uwagę, że niektórzy producenci, zwłaszcza Compaq i Dell, stosują zasilacze z gniazdami typowymi dla ATX, ale o innych napięciach i zmienionej kolejności pinów.

Łączenie takich zasilaczy z płytami ATX może prowadzić do uszkodzenia płyty bądź zasilacza.

 

W komputerach osobistych do zasilacza podłączone są:

Do pozostałych podzespołów napięcie z zasilacza jest dostarczone pośrednio od płyty głównej (np. wszelkie karty rozszerzeń, wentylatory procesorów, porty itp.)

 

Wtyczki stosowane w zasilaczach ATX

Zdjęcie

Oznaczenie

Ilość pinów

Opis

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/e/e9/ATX_PS_ATX_connector.jpg/150px-ATX_PS_ATX_connector.jpg

MPC (Main Power Connector), oznaczana P1

20, 24
(ATX v2.2), 20+4

Główna wtyczka zasilacza ATX podłączana do płyty głównej (w starszych zasilaczach AT wtyczka była podzielona na dwie oznaczone P8 i P9). Obecny standard ATX przewiduje 24 piny. Część zasilaczy jest wyposażonych w złącze 24-pinowe, które można rozłączyć na dwie części (20+4 piny) i wykorzystać ze starszymi płytami o gnieździe 20-pinowym. Niektóre zasilacze ATX posiadają dwie wtyczki - 20-pinową i 4-pinową, które można podłączyć jednocześnie do gniazda 24-pinowego.

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/b/bc/ATX_PS_12V_%28P4%29_Connector.jpg/150px-ATX_PS_12V_%28P4%29_Connector.jpg

ATX12V / EPS12V (4-pin), oznaczana P4

4

Druga wtyczka podłączana do płyty głównej (poza 24-pinową P1), dostarczająca napięcia zasilające dla procesora. Pojawiła się z powodu wymagań prądowych nowych procesorów firmy Intel[2].

ATX12V / EPS12V (8-pin)

8

Rozszerzona wersja wtyczki ATX12V/ESP12V 4-pin, która pojawiła się wraz z wprowadzeniem chipsetu Intel 975[2]. Stosowane w płytach serwerowych i komputerach profesjonalnych, których procesory pobierają większą moc.

PCI-E

6/8

Wtyczka zasilająca karty graficzne. Większość nowoczesnych zasilaczy jest wyposażone w 6-pinowe złącze przeznaczone dla kart graficznych PCI Express. Może ono dostarczyć do 75 watów mocy. W najnowszych konstrukcjach wprowadzono złącze 8-pinowe. Ze względu na kompatybilność wstecz stosuje się także złącza 6+2 piny, co pozwala zasilać karty PCI Express z gniazdami zarówno 6 jak i 8-pinowymi.

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/8/8d/Atx-apc.JPG/150px-Atx-apc.JPG

AUX lub APC (Auxiliary Power Connector)

6

Używana w starszych płytach głównych, które potrzebowały napięć 3,3 V i 5 V o większym natężeniu prądu. Konieczność jej podłączenia jest zależna od konfiguracji sprzętowej komputera. Usunięta w ATX v2.2.

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/3/31/Molex_female_connector.jpg/150px-Molex_female_connector.jpg

Molex

4

Jeden z najstarszych wtyków, wykorzystywany do zasilania dysków twardych i napędów optycznych typu ATA, dodatkowych elementów płyty głównej, kart graficznych i wielu innych urządzeń (np. interfejsów FireWire 800 w postaci kart PCI). Dostarcza napięć +5V i +12V. Złącze to w tej chwili jest coraz rzadziej wykorzystywane, wypierają je wtyki SATA i PCI-E.

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/0/04/Atx_molex_mini.jpg/150px-Atx_molex_mini.jpg

Molex mini

4

Jeden z najmniejszych wtyków, zasilający stacje dyskietek. W niektórych przypadkach dostarcza też dodatkową moc do kart wideo AGP.

Opis: http://upload.wikimedia.org/wikipedia/commons/thumb/6/6a/SATA_Power_Plug.jpg/150px-SATA_Power_Plug.jpg

SATA Connector

15

Wtyczka o 15 pinach zasilająca dyski twarde i optyczne standardu Serial ATA. Dostarcza trzech napięć: +3,3V, +5V i +12V.

 

 

Zasilacz, dostarczając energię do poszczególnych elementów komputera, może stać się też przyczyną ich uszkodzenia. Ze względu na wahania parametrów napięcia w sieci energetycznej,

każdy zasilacz powinien posiadać szereg wbudowanych zabezpieczeń, chroniących zarówno komputer jak i sam zasilacz:

w stosunku do wartości nominalnej[2]. Wymagane przez normę ATX12V.

uszkadza zasilanych podzespołów, może jednak wpłynąć negatywnie na ich stabilność.

powoduje wyłączenie zasilacza. Wymagane jest przez normę ATX12V.

np. z zakrycia wylotu zasilacza lub z powodu awarii wentylatora[2]. Wymagane jest przez normę ATX12V.

 jest one obowiązkowe, to znajdziemy je we wszystkich obecnych zasilaczach[2].

Stosowane jest głównie w zasilaczach z manualnym przełącznikiem napięcia wejściowego (115V lub 230V).

Warto zwrócić uwagę, by zasilacz miał możliwie wszystkie dostępne zabezpieczenia. Krytycznymi są te wymagane przez normę ATX12V.

 

Przy wyborze zasilacza użytkownicy nie powinni kierować się tylko jego mocą. Nie powinni również przesadnie oszczędzać przy kupnie zasilacza,

bo uszkodzenia spowodowane jego niską jakością mogą okazać się kosztowne.

Przede wszystkim wystarczy zwrócić uwagę na zgodność zasilacza z normą ATX - głównie pod względem zapisanych tam norm napięciowych, bowiem niektóre zasilacze wykazują

tendencję do dużych wahań napięcia. Takie wahania, jeżeli zasilacz nie ma bezpiecznika napięciowego na wyjściu (a zasilacze mające tendencje do wahań napięcia takiego nie mają),

mogą doprowadzić do zmniejszenia wydajności komputera np. poprzez samoczynne restarty. Są one najczęściej spowodowane dużym spadkiem napięcia, wskutek czego generalnie

dochodzi do zaprzestania pracy na kilka chwil dysku twardego. Takie skoki napięcia mogą również uszkodzić jakiś element komputera bądź cały komputer.

Kolejnym parametrem jest poziom hałasu wentylatora zasilacza podawany w dB - im cichszy, tym mniej decybeli (w nowych zasilaczach około 35 dB, zwykle tłumiony do 27 dB).

Zwykle zasilacze z cichszymi wentylatorami są droższe od standardowych, choć w przypadku zasilaczy komputerowych jest to istotne, szczególnie przy pracy w nocy i w domu,

gdy hałas ten jest zwykle dominującym i niepożądanym zjawiskiem w pomieszczeniu.

 

Obudowa komputera to najczęściej metalowa (stalowa lub aluminiowa) z elementami plastikowymi zamknięta skrzynka w formie prostopadłościanu, umożliwiająca umieszczenie

i zamocowanie najważniejszych elementów komputera. Nowa obudowa jest sprzedawana zazwyczaj łącznie z zasilaczem komputera.

Obudowy komputerów typu PC różnią się od siebie wymiarami i kształtem oraz architekturą. Pod względem wymiarów i kształtów można obecnie rozróżnić dwa podstawowe rodzaje

obudów komputera: desktop oraz tower, natomiast pod względem architektury są to cztery typy: AT, ATX, NLX, Mini-PC oraz stosunkowo nowy BTX.

Obudowa typu desktop

Obudowa skonstruowana tak, by umożliwić postawienie na niej monitora. Jej charakterystyczny płaski kształt ogranicza przestrzeń wewnątrz takiej obudowy, co utrudnia lub

uniemożliwia rozbudowę komputera o nowe, wewnętrzne urządzenia, przez co zawęża się wachlarz zastosowań. Jedną z zalet tego typu obudów jest mała ilość zajmowanego

miejsca na biurku w przypadku posiadania monitora CRT.

Obudowa typu tower

Stojąca obudowa komputera o kształcie wysokiego lecz wąskiego prostopadłościanu. Dzieli się na trzy rodzaje różniące się rozmiarami.

Klawiatura komputerowa – uporządkowany zestaw klawiszy służący do ręcznego sterowania urządzeniem lub ręcznego wprowadzania danych. W zależności od spełnianej funkcji

klawiatura zawiera różnego rodzaju klawisze – alfabetyczne, cyfrowe, znaków specjalnych, funkcji specjalnych, o znaczeniu definiowanym przez użytkownika.

Klawiatury występują w najróżniejszych urządzeniach – maszynach do pisania, klawiszowych instrumentach muzycznych, kalkulatorach, telefonach, tokenach; w szczególności jest to

jeden z podzespołów wejściowych komputera. Aktualnie używane modele klawiatur komputerowych mają około 100 klawiszy. Coraz częściej w klawiatury komputerowe wbudowuje

się dodatkowe elementy sterujące (gładzik, dodatkowe przyciski, pokrętła, suwaki i in.), kontrolne (diody świecące) i inne (np. czytnik kart pamięci, porty

USB, gniazda do zestawu słuchawkowego) – najczęściej do obsługi multimediów.

Klawiatury mogą mieć najróżniejszą konstrukcję:

czynność użyteczną (np. napęd dźwigni w maszynie do pisania, przestawienie tarczy w arytmometrze mechanicznym)

obwodem drukowanym (technika drukusitodruk, farby przewodzące prąd), membrana oddzielająca, kolejna warstwa z nadrukowanym obwodem drukowanym i kolejna

warstwa laminująca. Membrana oddziela obwody drukowane poza momentem, gdy naciskany jest przycisk.

obniżenie rezystancji pomiędzy końcówkami pola stykowego

monitora. Zaletą klawiatur ekranowych w porównaniu z fizycznymi jest możliwość wizualnej prezentacji wielu zestawów znaków z różnych alfabetów.

 

Na klawiaturze komputerowej każde naciśnięcie lub puszczenie klawisza powoduje wysłanie sygnału do komputera. Każdy klawisz ma przypisaną własną parę sygnałów, zwanych „scancode”.

Od pewnego czasu na rynku dostępne są klawiatury bezprzewodowe stosujące do komunikacji z komputerem podczerwień (musi być kontakt klawiatury z odbiornikiem sygnału) oraz fale radiowe

(mogą to być znaczne odległości ok. 5 m). Najnowszym trendem jest łączenie klawiatur za pomocą standardu Bluetooth. Klawiatury wprowadzające znaki łacińskie występują najczęściej

w tzw. układzie QWERTY (od pierwszych liter w lewym, górnym rogu klawiatury), rzadziej QWERTZ (klawiatury niemieckie czy polskie w tzw. układzie maszynistki) czy AZERTY (francuskie).

Istnieją również inne układy klawiatur, między innymi klawiatura Dvoraka, której celem jest przyśpieszenie pisania.

Układ znaków na klawiaturze klawiatury komputerowe odziedziczyły po klawiaturach mechanicznych maszyn do pisania – występował tam problem blokujących się dźwigni podczas szybkiego

pisania, który próbowano rozwiązać poprzez umieszczenie klawiszy z najczęściej powtarzającymi się sekwencjami liter w taki sposób, by leżały możliwie daleko od siebie. Obecnie produkuje

się głównie klawiatury na łącze PS/2 i USB. Długotrwała praca na klawiaturze może prowadzić do zespołu RSI.

Historia

Pierwszy komputer wyposażony w klawiaturę powstał w 1960 roku.

Mysz (z ang. mouse) – urządzenie wskazujące używane podczas pracy z interfejsem graficznym systemu komputerowego. Została wynaleziona przez Douglasa Engelbarta w 1964 r.

Mysz umożliwia poruszanie kursorem po ekranie monitora poprzez przesuwanie jej po powierzchni płaskiej. Mysz odczytuje zmianę swojego położenia względem podłoża, a po jego

zamianie na postać cyfrową komputer dokonuje zmiany położenia kursora myszy na ekranie. Najczęściej wyposażona jest w dwa przyciski i kółko do przewijania ekranu,

które może również pełnić rolę trzeciego przycisku.

Mysz mechaniczna (mysz "kulkowa")

Najstarszym typem myszy jest mysz mechaniczna. W urządzeniu tym wykorzystuje się metalową kulkę pokrytą gumą oraz system rolek. Kulka pod wpływem tarcia o powierzchnię,

po której przesuwamy mysz, obraca się. Kulka powoduje obrót dwóch prostopadle umieszczonych rolek, które odzwierciedlają przesunięcie kursora na ekranie w pionie i poziomie.

Rolki poruszają talerzyki o pewnej (najczęściej 32 lub 36) liczbie otworów rozłożonych równo na brzegu talerzyka. Obrót talerzyka powoduje przecinanie strumienia światła (podczerwieni),

który odbierany jest przez czujnik. Ponieważ znany musi być kierunek prowadzenia myszy, czyli kierunek obrotu talerzyka, stosuje się na jedną oś dwa czujniki umieszczone w pewnym odstępie

od siebie, oświetlane jedną lub dwiema podczerwonymi diodami elektroluminescencyjnymi (LED). Sygnał z czujników jest doprowadzany do wstępnej postaci cyfrowej przez komparator napięcia,

po czym obrabiany zgodnie ze standardami komunikacji danego urządzenia. Ze względu na to, że do poruszania kulką myszy potrzebna jest równa powierzchnia o odpowiednio dużym tarciu,

stosuje się specjalne podkładki. W trakcie używania myszy brud z podkładki przenosi się na kulkę i wałki. Powoduje to problemy z działaniem urządzenia i wymusza jego czyszczenie co jakiś czas.

Mysz diodowa (mysz optyczna)

Nowszym rozwiązaniem jest tzw. mysz optyczna. W podstawie takiej myszy zainstalowana jest jedna lub więcej diod elektroluminescencyjnych oświetlających powierzchnię pod myszą,

soczewka ogniskująca oraz matryca CCD. Mysz tego typu posiada także specjalizowany procesor DSP (zazwyczaj zintegrowany z matrycą) służący do analizowania względnych zmian

w położeniu mocno powiększonego obrazu powierzchni. Zaletą tego rozwiązania jest brak mechaniki, która łatwo ulega zanieczyszczeniu i wymaga częstej konserwacji oraz to, że mysz działa

na prawie każdej powierzchni (oprócz szkła i lustra) i teoretycznie nie wymaga podkładki. Wadą tego typu urządzeń jest jednak wrażliwość na silne światło dzienne, które padając z boku może zakłócać pracę myszki.

Mysz laserowa

Jednym z najnowszych rozwiązań jest zastosowanie diody laserowej zamiast diod świecących, co jeszcze bardziej podnosi rozdzielczość myszy, a tym samym jej czułość. Zaletą tego rozwiązania

jest brak mechaniki, która łatwo ulega zanieczyszczeniu i wymaga częstej konserwacji oraz to, że mysz działa bezproblemowo na praktycznie każdej powierzchni (oprócz szkła, granitu i lakierowanego drewna).

Mysz przewodowa

Najbardziej rozpowszechniony typ myszy, podłączony do komputera za pomocą kabla.

Mysz bezprzewodowa

Mysz bezprzewodowa nie wymaga przewodowego podłączenia do komputera. Do komputera podłączony jest moduł. Pomiędzy modułem a myszą dane przesyłane są przy

pomocy fal radiowych (Bluetooth lub własny protokół) lub w starszych modelach za pomocą podczerwieni.

Interfejs

Źródło: Wikipedia