Dzisiaj
Można dyskutować, kiedy zaczęło się „dzisiaj”. Mam trzy kandydatury. Każda z nich jest dobra, bo wyznacza wyraźny przełom. Technologiczny lub społeczny.
Pierwszy tranzystor został skonstruowany 16 grudnia 1947roku w laboratoriach firmy Bell Telephone Laboratories. Wynalazcy to John Bardeen, Walter Houser Brattain oraz William Bradford Shockley, którzy otrzymali za to Nagrodę Nobla z fizyki w 1956 roku. Znaczenia tego wynalazku dla rozwoju elektroniki nie da się przecenić. Po prostu: bez tranzystora nie ma elektroniki! I niech ktoś udowodni, że to nieprawda!
Przypomnę również, że w 1971 roku, na zlecenie japońskiej firmy Busicom, Intel stworzył bestię: 4-bitowy procesor Intel 4004, taktowany zegarem do 740 kHz (lub – jak kto woli – 0,74 MHz), zawierający w swojej strukturze 2300 tranzystorów i zamknięty w ceramicznej obudowie DIP16. Był to pierwszy chip komputerowy. Za nim przyszły inne, o coraz większych możliwościach.
W 1982 powstał pierwszy komputer, który trafił pod strzechy. Przynajmniej w Europie. To niezapomniany ZX Spectrum. 48 kB pamięci, procesor Z80A taktowany 3,5 MHz, taśmowa pamięć zewnętrzna. Tylko ten, kto widział na ekranie telewizora napis „Sinclair Research Ltd. 1982”, rozumie magiczny wpływ tego urządzenia na wielu spośród właśnie czytających ten artykuł.
Niebawem ukazały się następne domowe komputery 8-bitowe: C64, Atari, Amstrad i wreszcie 16-bitowa Amiga 500. Już 8 marca 1983 roku IBM rozpoczął masową produkcję komputera osobistego PC/XT, który był wyposażony w procesor 8088 taktowany 4,77 MHz oraz miał 256 kB pamięci RAM. Model ten był następnie rozwijany – zwiększano częstotliwość zegara taktującego oraz ilość dostępnej pamięci RAM. Od niego wywodzi się cała rodzina komputerów klasy PC.
Konsekwencją wynalezienia tranzystora i powstania układów scalonych było m.in. odejście konstruktorów komputerów od stosowania pamięci ferrytowych w charakterze pamięci operacyjnych i zastąpienie ich pamięciami półprzewodnikowymi. Podstawową różnicą pomiędzy nimi była ulotność danych zmagazynowanych w tych drugich po wyłączeniu zasilania. To niemal automatycznie wymusiło opracowanie pamięci zewnętrznej komputera, która pozwoliłaby zmagazynować bardzo duże ilości danych operacyjnych. Jednocześnie pamięć ta umożliwia wprowadzenie do komputera programu, który wykonywałby się, wykorzystując zapisane dane, oraz zapisanie wyników pracy programu tak, aby mógł wznowić działanie od miejsca, w którym został zakończony.
Biorąc to pod uwagę, proponuję do urządzeń kategorii „dzisiaj” zaliczać wszystkie konstrukcje powstałe po roku 1980. A powstało ich niemało. Ale nie wszystko naraz! Zacznijmy od pamięci RAM.
Pamięć RAM
Pamięć RAM, która zastąpiła pamięć ferrytową, jest podstawową pamięcią operacyjną komputera. Podstawową, ponieważ współczesne komputery mają kilka, hierarchicznie usytuowanych, warstw pamięci, co zostało przedstawione w tabeli poniżej.
Pierwszą, najszybszą warstwę pamięci komputera tworzą rejestry CPU. Jednocześnie ich pojemność jest najmniejsza. Im niżej, tym pamięć jest wolniejsza, ale może przechowywać większą ilość danych. Kolejno mamy pamięci cache: L1, L2, L3, a potem RAM, HDD, Flash. Wynika z tego podstawowa zasada: odwołania do najwolniejszych pamięci powinny być jak najrzadsze. Wtedy program działa najszybciej. Łatwo powiedzieć, trudniej zrealizować.
Zapoznajcie się wobec tego z ewolucją współczesnego RAM-u. Fotografie pokazują zmiany w jego wyglądzie, jakie zachodziły na przestrzeni lat.
Od pamięci mieszczącej się w niewielkiej obudowie DIP (ang. Dual In Package), stosowanej w pierwszych komputerach PC typu XT lub AT, do współcześnie stosowanych DDR3. Jednak praktycznie rzecz biorąc, wygląd modułu pamięci niewiele się zmienił od powstania pamięci SDRAM w obudowie DIMM. Oczywiście, zmieniała się liczba styków oraz liczba i usytuowanie kluczy ustalających położenie modułu w jego gnieździe. Nie można tego natomiast powiedzieć o parametrach elektrycznych pamięci, które zmieniały się bardzo dynamicznie.
Zasadniczo cały czas rosły pojemności modułów oraz ich częstotliwość działania. Gorzej z opóźnieniami w czasie dostępu do informacji. Dało się to zauważyć przy przejściu z pamięci DDR na DDR2 i z DDR2 na DDR3. Pierwsze modele pamięci DDR2, którymi zastąpiono pamięć DDR, obniżały ogólną wydajność komputera. W okresie dominacji na rynku procesorów Athlon 64 firma AMD nie spieszyła się z opracowaniem kontrolera pamięci DDR2, ponieważ istniejący, wbudowany w procesor kontroler pamięci DDR zapewniał przewagę nad produktami Intela, wykorzystującymi teoretycznie lepszą i szybszą pamięć DDR2. Rozwój technologii powoli jednak zniwelował istniejące różnice i AMD musiała opracować kontroler pamięci DDR2. Właściwie od tego momentu zaczęły się kłopoty tej firmy, bo nowy kontroler przez długi czas nie dorównywał wydajnością starszemu bratu. Problemy, zwłaszcza finansowe, zaczęły narastać po kontrowersyjnym zakupie firmy ATI, jednak najpoważniejszym ciosem okazała się intelowska architektura Core 2 Duo, na którą do dzisiaj AMD nie znalazła odpowiedzi. Procesory Phenom, choć niezłe, wydajnościowo nie dorównały procesorom C2D. Obecnie AMD stoi u progu bankructwa, walcząc o przeżycie i tnąc koszty na wszelkie możliwe sposoby. Ze względów rynkowych życzę „zielonym” powrotu do pełnej formy, zwłaszcza finansowej.
Nieustanny postęp technologiczny skutkował również ciągłym zmniejszaniem się poboru mocy przez pamięć RAM, która obecnie wykonywana jest w postaci układów scalonych.
Czas najwyższy przedstawić zasadę działania pamięci RAM. Najogólniej rzecz biorąc, zbudowane są one z elementów elektronicznych, które potrafią zapamiętać swój stan. Każdy taki element potrafi zapamiętać bit informacji. Patrząc historycznie, pamięci podzieliły się na SRAM (ang. Static RAM) i DRAM (ang. Dynamic RAM). Te pierwsze jako element pamiętający swój stan stosują przerzutnik, w drugich jest nim kondensator. Głównie ze względu na o wiele niższy pobór mocy na rynku utrzymały się pamięci DRAM, pomimo niedogodności związanej z koniecznością okresowego uzupełniania ładunku rozładowującego się kondensatora. Taki proces nazywa się odświeżaniem pamięci. Aby pamięć spełniła swoje zadanie, każda jej komórka musi mieć swój adres, który umożliwi przekazanie lub pobranie informacji. Najprostszym sposobem adresowania pamięci jest tzw. 2D. Każda komórka pamięci ma podłączone przewody wejścia, wyjścia i sygnału wybierania – pochodzącego z dekodera adresów. Z kolei metoda 3D polega na podziale istniejących elementów na rzędy i kolumny.
Dostęp do elementu uzyskuje się, adresując odpowiedni rząd i kolumnę. Z tego powodu komórka RAM musi jeszcze mieć dwa sygnały wybierania: z dekodera kolumn i wierszy. Wprawdzie metoda 2D umożliwia szybszy dostęp do komórki pamięci, ale utrudnia budowę modułu pamięci o większej pojemności. Metoda 3D umożliwia prosty i jednolity dostęp do komórek pamięci i obecnie jest powszechnie stosowana. Podstawową zasadą jest podział pamięci na tzw. banki, co ułatwia pracę dekoderowi adresów.
Celowo pomijam obszerne zagadnienie opóźnień (timingów) poszczególnych rodzajów pamięci, od FPMRAM, EDORAM i BEDORAM, poprzez SDR SDRAM, RDRAM, DDR SDRAM i DDR2 SDRAM, do DDR3, DDR4 i DDR5. Zainteresowanych odsyłam do Google’a. Ograniczę się jedynie do zdefiniowania podstawowych współczynników charakteryzujących współczesne pamięci RAM.
CAS latency (CL) – oznacza czas (mierzony liczbą cykli impulsów taktujących), który upływa od wysłania przez kontroler pamięci żądania odczytu miejsca pamięci (ang. memory location) do przesłania odczytanych danych dalej (ang. output pins). Im niższy jest ten współczynnik, tym pamięć powinna działać szybciej.
RCD – określa wartość przerwy wymaganej pomiędzy podaniem adresu wiersza i kolumny.
RP – określa czas trwania sygnału odświeżania pamięci.
RAS–określa liczbę cykli wymaganych do wykonania polecenia aktywacji jednego z banków pamięci, zanim adres wiersza będzie mógł zostać załadowany. Wszystkie te współczynniki, łącznie z typem pamięci, zazwyczaj podawane są na obudowie modułu, co pozwala szybko się zorientować, czego można się po nim spodziewać.
Sądzę, że na potrzeby tego opracowania wystarczy powiedzieć, że pamięć SDR SDRAM (ang. Single Data Rate Synchronous DRAM) ma (teoretycznie) o połowę mniejszą wydajność od DDR SDRAM (ang. Double Data Rate Synchronous DRAM). Zależność ta wynika ze sposobu przenoszenia informacji wewnątrz pamięci, co związane jest z wykorzystywaniem do tego celu odpowiednich fragmentów sygnału taktującego, na jego opadającej i wznoszącej się części. Innymi słowy, pamięć SDR SDRAM wykonuje jedną operację podczas cyklu zegara taktującego, a DDR SDRAM – dwie. Dane do pamięci i z pamięci mogą być przekazywane asynchronicznie lub synchronicznie z taktowaniem CPU. Pamięć SDRAM umożliwia synchroniczną transmisję danych, co zwiększa wydajność pamięci, a zatem i całej maszyny. Spowodowane to jest brakiem konieczności oczekiwania na „zwolnienie” magistrali przekazującej dane, ponieważ następuje ono jednocześnie z ich pobraniem. Jako o pewnej ciekawostce wspomnę jeszcze o tzw. dwukanałowości pamięci RAM. Rozwiązanie to wynika z konstrukcji kontrolera pamięci, a nie zmian konstrukcyjnych pamięci. Teoretycznie zdublowanie kanału przesyłu informacji na trasie RAM – CPU powinno zaowocować podwojeniem wydajności maszyny. W praktyce wzrost wynosi 3–4%, ale i to nie jest do pogardzenia.
Dla porządku wspomnę również o firmie Rambus i jej „produktach”. Firma ta nie cieszy się sympatią na rynku pamięci, ponieważ jej niebagatelnym źródłem dochodów są wpływy z wielu procesów sądowych, które bez przerwy wytacza innym firmom, oskarżając je o plagiaty rozwiązań technicznych. Sprawa sięga czasów, gdy Rambus jako członek JEDEC (ang. Joint Electron Device Engineering Council – rada ustalająca standardy urządzeń elektronicznych) wykorzystał informacje, które miał z tego tytułu, i opatentował kilka ogólnie stosowanych przez producentów pamięci rozwiązań technicznych. Niczego nie produkując, Rambus żyje z opłat uzyskiwanych za licencjonowanie własnych patentów, sprytnie przy tym wykorzystuje na swoją korzyść luki prawne w ustawodawstwie. Niezbyt chlubnie zakończyła się również współpraca Rambusa z Intelem, który musiał wycofać się z promowania nieudanej pamięci RDRAM. Trzeba jednak przyznać, że opracowana i opatentowana przez Rambusa pamięć XDR, wraz z przeznaczonymi do niej interfejsami, jest obecnie najszybszym na świecie zestawem obsługującym porty I/O, zapewniającym największą możliwą obecnie do osiągnięcia przepustowość 16 GB/s dla jednego modułu. Pamięć XDR potrafi przenieść 8 bitów danych w ciągu jednego cyklu zegara taktującego, który może działać z częstotliwością do 6,4 GHz. Jest to wprost wymarzone rozwiązanie dla urządzeń obsługujących multimedia, z HDTV włącznie.
Niezależnie od tego różne udoskonalenia wprowadzane nieustannie do projektów i technologii produkcji pamięci, takie jak wewnętrzny pipelining czy przeplot (ang. interleaving), sprawiają, że pamięci mają coraz większą wydajność. Warto także wspomnieć o istnieniu programowalnego trybu burst, w którym możliwa jest kontrola prędkości transferu danych oraz eliminacja cykli oczekiwania (ang. wait states). Daje się zauważyć ogólna tendencja do zwiększania częstotliwości działania pamięci przy jednoczesnym wzroście czasu oczekiwania na dostęp do danych. Obecnie wzrost wydajności komputera wyposażonego w pamięć DDR3 w porównaniu do DDR2 jest prawie niezauważalny. Jednak podobna sytuacja miała miejsce przy przejściu z DDR na DDR2. Ale pamięć DDR3 zużywa zdecydowanie mniej mocy, ponieważ działa przy niższym napięciu zasilającym. Wniosek? Cierpliwości! Niebawem pamięci DDR3 będą miały lepsze parametry niż DDR2 i bez wątpienia stanieją. A co z pamięciami DDR4 i DDR5? Obecnie wykorzystywane są one wyłącznie do obsadzania kart graficznych. Ogólnie biorąc, mogą one działać przy wyższych częstotliwościach niż DDR3, jednak kosztem dłuższych timingów. Pobierają również mniej mocy. Czyli sytuacja identyczna jak w relacji DDR2 – DDR3. Ograniczeniem we wprowadzaniu na stałe pamięci DDR3, DDR4 i DDR5 jako pamięci operacyjnej RAM jest konieczność przeprojektowania kontrolerów pamięci oraz cena. To kwestia kilku lat, chociaż już teraz pojawiają się płyty główne umożliwiające umieszczenie w slotach pamięci RAM zarówno modułów DDR2, jak i DDR3.
Pamięć ROM
Pamięć ROM (ang. Read Only Menory), podobnie jak RAM, jest operacyjną półprzewodnikową pamięcią ogólnodostępną. Od RAM-u różni się brakiem możliwości zapisywania w niej bieżącej informacji. Dlatego też wykorzystywana jest jako skład stałych danych, potrzebnych do działania komputera, jak procedury startowe lub próbki przebiegu w cyfrowym generatorze funkcyjnym. Dane te są odczytywane z ROM-u zależnie od potrzeb systemu operacyjnego. Istnieje kilka rodzajów pamięci ROM, różniących się sposobem zapisu i kasowania danych: CROM, PROM, EPROM, EAROM, EEPROM, Flash EEPROM.
Dysk twardy (HDD)
Protoplastą współczesnego dysku twardego była opisana wcześniej pamięć bębnowa. Pierwszy w historii dysk twardy ukazał się w 1957 roku; był to produkt firmy IBM o nazwie RAMAC 350 (ang. Random Access Method of Accounting and Control). Składał się on z 50 dysków o średnicy 24 cali i miał niebywałą, jak na owe czasy, pojemność 5 MB. Los pamięci bębnowej był przesądzony.
Nieustannie prowadzone przez IBM prace rozwojowe zaowocowały w latach 70. pojawieniem się modelu 3340, nazwanego Winchester. Średnica dwóch dysków, z których każdy miał pojemność 30 MB, wynosiła 14 cali, głowice poruszały się na poduszce powietrznej w odległości około 0,016 cala od powierzchni nośnika, a talerze były umieszczone na wspólnej osi. Dysk Winchester, patrząc od strony konstrukcyjnej, jest dalekim krewnym współczesnych HDD.
Jak więc jest skonstruowany i jak działa współczesny dysk twardy, którego pojemność w przypadku niektórych modeli sięga 1000 GB, typowa wynosi 320 GB, a czas dostępu oscyluje w okolicy 10 ms?
Dysk twardy składa się z zamkniętego w obudowie, wirującego talerza (dysku) lub zespołu talerzy, wykonanych najczęściej ze stopów aluminium, o wypolerowanej powierzchni pokrytej materiałem magnetycznym (grubości kilku mikrometrów), oraz z głowic elektromagnetycznych umożliwiających zapis i odczyt danych. Na każdą powierzchnię talerza dysku przypada po jednej głowicy odczytu i zapisu. Głowice są umieszczone na elastycznych ramionach i w stanie spoczynku stykają się z talerzem blisko osi; w czasie pracy unoszą się, a ich odległość od talerza jest stabilizowana dzięki sile aerodynamicznej (głowica jest odpychana od talerza, podobnie jak skrzydło samolotu unosi maszynę), powstałej w wyniku szybkich obrotów talerza. Jest to najpopularniejsze obecnie rozwiązanie (są też inne sposoby prowadzenia głowic nad talerzami).
Ramię głowicy dysku ustawia głowice w odpowiedniej odległości od osi obrotu talerza w celu odczytu lub zapisu danych na odpowiednim cylindrze. Pierwsze konstrukcje (do ok. 200 MB) były wyposażone w silnik krokowy, stosowany również w stacjach dyskietek. Wzrost liczby cylindrów na dysku oraz konieczność zwiększenia szybkości dysków wymusił wprowadzenie innych rozwiązań. Najpopularniejszym obecnie jest tzw. voice coil, czyli cewka wzorowana na układzie magnetodynamicznym stosowanym w głośnikach. Umieszczona w silnym polu magnetycznym cewka porusza się i przyjmuje położenie zgodnie z przepływającym przez nią prądem, ustawiając ramię w odpowiedniej pozycji. Dzięki temu czas przejścia między kolejnymi ścieżkami może być krótszy niż milisekunda, a przy większych odległościach nie przekracza kilkudziesięciu milisekund. Układ regulujący zmienia natężenie prądu, tak by położenie głowicy ustabilizowało się jak najszybciej w zadanej odległości od środka talerza (nad wyznaczonym cylindrem).
Informacja jest zapisywana na dysk przez przesłanie strumienia elektromagnetycznego przez antenę albo głowicę zapisującą, która jest bardzo blisko magnetycznie polaryzowalnego materiału, zmieniającego swoją polaryzację (kierunek namagnesowania) wraz ze strumieniem magnetycznym. Informacja może zostać odczytana w odwrotny sposób, gdyż zmienne pole magnetyczne powoduje indukowanie napięcia elektrycznego w cewce głowicy lub zmianę oporu w głowicy magnetyczno-oporowej. Ramiona połączone są zworą i poruszają się razem. Zwora kieruje głowicami promieniowo po talerzach, a w miarę jak talerze się obracają, daje każdej głowicy dostęp do całości przyporządkowanego jej talerza.
Zintegrowana elektronika kontroluje ruch zwory i obroty dysku oraz przygotowuje odczyty i zapisy na polecenie kontrolera dysku. Niektóre nowoczesne układy elektroniczne są zdolne skutecznie szeregować odczyty i zapisy na przestrzeni dysku oraz remapować sektory dysku, które zawiodły.
Obudowa chroni części napędu od pyłu, pary wodnej i innych źródeł zanieczyszczenia. Jakiekolwiek zanieczyszczenie głowic lub talerzy może doprowadzić do uszkodzenia głowicy (ang. head crash) lub talerza, gdy głowica uszkadza go, ścierając cienką warstwę magnetyczną. Awarie głowicy mogą również być spowodowane przez błąd elektroniczny, zużycie, zniszczenie oraz błędy produkcyjne dysku.
Dyski CD
Standardowa płyta kompaktowa, często określana jako Audio CD, dla odróżnienia od późniejszych wariantów, została opracowana wspólnie przez koncerny Philips i Sony pod koniec lat 70. Najbardziej popularne są płyty o pojemności 650 MB i 700 MB. Płyty kompaktowe wykonane są z poliwęglanowej płytki o grubości 1,2 mm i średnicy 12 cm, pokrytej cienką warstwą aluminium, w której zawarte są informacje (w postaci kombinacji mikrorowków i miejsc ich pozbawionych).
Odczytywane są one laserem półprzewodnikowym (AlGaAs) o długości fali około 780 nm. Powyższa fotografia przedstawia spód płyty (nagrane informacje). Natomiast poniżej pokazany jest sposób zapisu danych na płycie, który tworzy spiralną ścieżkę biegnącą od środka do brzegu płyty.
Prędkość obrotowa płyty zmienia się w taki sposób, że stała jest prędkość liniowa głowicy odczytującej względem ścieżki, i zawiera się w zakresie od 1,2 do 1,4 m/s. Odczyt płyty następuje od środka do krawędzi, a prędkość obrotowa jest tym mniejsza, im ścieżka jest bardziej odległa od środka płyty.
Częstotliwość próbkowania dźwięku zapisanego na CD to 44,1 kHz, co pozwala na odwzorowanie dźwięku o częstotliwości do 22,05 kHz. Dane zapisane są w postaci wgłębień (ang. pit) oraz pól (ang. land), czyli przerw pomiędzy wgłębieniami. Każda zmiana stanu z wgłębienia na pole jest odczytywana przez układ optyczny jako 1, brak zmiany – jako 0. Wgłębienie ma około 125 nm głębokości przy 500 nm szerokości, a jego długość waha się od 850 nm do 3,5 µm. Na płycie poza muzyką mogą być również zapisywane multimedia oraz dane komputerowe. Zapis może się odbywać w jednym z wielu standardów: CD-Audio, PhotoCD, CD-R, CD-ROM, CD-RW, VCD, SVCD, CD+G, CD-Text, CD-ROM XA, CD-Extra, CD-i Bridge, CD-i. Na szczęście urządzenia odczytujące i nagrywające płyty CD, zwane napędami, rozpoznają je automatycznie, ale nie każde potrafi obsłużyć wszystkie z nich. Ewolucja napędów CD polegała głównie na zwiększaniu szybkości odczytu i zapisu danych oraz wzroście ich niezawodności. Pierwsze napędy działały z prędkością 150 kB/s. Obecnie najszybsze napędy osiągają prędkości 52 razy większe, ale dotyczy to jedynie odczytu, i to nie na całej powierzchni płyty. Większość napędów CD-ROM komunikuje się z komputerem za pomocą interfejsu SCSI lub IDE/EIDE, wykorzystując najczęściej protokoły ATAPI lub ASPI. Współczesne napędy CD wyposażone są prawie zawsze w zewnętrzne gniazdo słuchawkowe, pozwalające odtwarzać płyty Audio-CD bez konieczności użycia jakiegokolwiek oprogramowania, oraz wewnętrzne wyjście cyfrowe S/PDIF, umożliwiające czytanie ramek danych z płyt Audio CD w formie cyfrowej.
Z redaktorskiego obowiązku wspomnę jeszcze o istnieniu dysków CD w dość nietypowych formatach: 800 MB, 870 MB i 1,4 GB. W 1985 roku Philips i Sony opublikowały specyfikację tzw. CD-ROM-u, który miał służyć jako nośnik do magazynowania i archiwizowania danych. Ze względu na jego przeznaczenie zwrócono większą uwagę na korekcję błędów zapisu oraz redundancję informacji, co ogranicza pojemność CD-ROM-u do 700 MB.
Dyski DVD
Wprawdzie dyski CD umożliwiają zapis danych multimedialnych, jednak wyraźną przeszkodą w zastosowaniu ich jako nośnika danych jest ograniczona pojemność. Nad koncepcją wykorzystania lasera do zapisu cyfrowego obrazu wideo na płytach pracowało wiele firm, poczynając od lat 70. minionego wieku. Jednakże dopiero z początkiem lat 90. firmy: Toshiba, Panasonic i Time Warner, wspólnie zaprezentowały optyczny dysk wideo SD (ang. Super Density), a działające niezależnie od siebie firmy Philips i Sony przedstawiły dysk MM CD (ang. multimedia CD), bardziej znany jako HD CD (ang. High Density CD). Systemy SD i HD CD były bardzo zbliżone, jednak nie były kompatybilne. Aby uniknąć sytuacji, jaka miała miejsce w przypadku standardów VHS i Betamax, z udziałem 10 koncernów powstało DVD Forum, które w 1995 roku zaproponowało jeden wspólny standard DVD (ang. Digital Video Disc), przeznaczony głównie do zapisu wideo. Ponieważ dysk ten znalazł również inne zastosowania, zmieniono jego oficjalną nazwę na Digital Versatile Disc. Jednym z założeń, które przyjęto podczas konstruowania DVD, było zachowanie kompatybilności z CD. W praktyce oznacza to możliwość odczytu i zapisu w napędzie DVD płyt CD. Opracowana technologia zapewnia pojemność 4,7 GB, co pozwala na zapisanie na jednostronnym, jednowarstwowym nośniku (dzięki kompresji MPEG-2) ponad 120 minut obrazu wideo, napisów w wielu językach oraz trzech wielokanałowych ścieżek dźwiękowych w systemie 5.1 Dolby Digital. Było to możliwe dzięki zastosowaniu lasera o mniejszej długości fali (czerwonego), co z kolei umożliwiło zmniejszenie wymiarów pitu i landu. W efekcie wzrosła pojemność płyty. Oczywiście powstały również płyty DVD dwustronne i wielowarstwowe, o pojemności do 18 GB. Wszystko to spowodowało powstanie wielu standardów, w których mogą być zapisywane płyty DVD. Najbardziej popularne są standardy: DVD-R, DVD-RW, DVD+R, DVD+RW.
Dążenie do zwiększenia pojemności płyt DVD zaowocowało stworzeniem płyt dwustronnych oraz wielowarstwowych, których pojemność obecnie sięga 60 GB. Tak duże pojemności uzyskano dzięki zastosowaniu lasera o długości fali 405 nm (niebieskiego) w urządzeniach HD DVD (ang. High Definition DVD). Jakby tego wszystkiego było mało, niezależnie od technologii HD DVD powstała technologia Blu-ray, w skrócie BD (ang. Blu-ray Disc). Również ona wykorzystuje laser 405 nm, ale istotnie różni się budową dysku, jego pojemnością (większą od HD DVD), mocą używanego lasera, metodami kodowania i organizacją danych. Oczywiście oba systemy są niekompatybilne. Obecnie wygląda na to, że HD DVD nie utrzyma się na rynku.
Wprawdzie wszystkie technologie DVD są bezdyskusyjnymi liderami, jeśli chodzi o zapis danych multimedialnych, ale ich rola w przechowywaniu danych wyraźnie maleje. W tej dziedzinie prymat przejęły i dzierżą pamięci flash.
Pamięć flash
Pamięć flash jest rodzajem pamięci EEPROM (ang. Electrically-Erasable Programmable Read-Only Memory), pozwalającej na zapisywanie lub kasowanie wielu komórek pamięci podczas jednej operacji programowania. Jest to pamięć nieulotna – po odłączeniu zasilania nie traci swej zawartości. Standardowe pamięci EEPROM pozwalają zapisywać lub kasować tylko jedną komórkę pamięci naraz, co oznacza, że pamięci Flash są znacznie szybsze, jeśli wykorzystujący je system zapisuje i odczytuje komórki o różnych adresach w tym samym czasie. Wszystkie typy zarówno pamięci Flash, jak i EEPROM mają ograniczoną liczbę cykli kasowania; przekroczenie tej liczby powoduje uszkodzenie pamięci. Istnieją dwa rodzaje pamięci flash: NOR i NAND, różniące się typem bramki logicznej zastosowanej w komórkach pamięci. Nazwy rodzajów pamięci pochodzą od użytego typu bramki logicznej.
Jako pierwszy pamięć flash (zarówno NOR, jak i NAND) zbudował w 1984 roku dr Fujio Masuoka, pracujący dla Toshiby. Do masowej produkcji pierwszy, w roku 1988, wprowadził ją Intel. Ma ona długie czasy zapisu i kasowania, ale umożliwia bezpośredni dostęp do każdej komórki pamięci. Z tego względu nadaje się do przechowywania informacji, które nie wymagają częstej aktualizacji, jak firmware różnego rodzaju urządzeń. Wytrzymuje od 10 000 do 100 000 cykli kasowania.
Przebojem ostatnich lat są przenośne dyski wykorzystujące pamięć flash, tzw. pendrive’y. To bardzo wygodne urządzenie, podłączane do portu USB w komputerze, jest rozpoznawane w nim jako jeszcze jeden dysk twardy i umożliwia bezproblemowy transfer danych. Dane zapisane w nim na jednym komputerze są odczytywane w innym. Wystarczy wsunąć pendrive’a do portu USB. Początkowo, jak zwykle przy stosowaniu nowej technologii, występowały ograniczenia pojemności oraz bariera cenowa. Dziś pendrive’a o pojemności 4 GB można kupić za kilkadziesiąt złotych! Poniższa fotografia przedstawia pendrive’a po otwarciu obudowy.
Niektóre bardziej zaawansowane urządzenia tego rodzaju są dodatkowo wyposażone w pewnego rodzaju pamięć w pamięci. Umożliwia to wyposażenie pendrive’a w zestaw różnych użytecznych programów pomocniczych, które można wykorzystać w miarę potrzeb. Technologia ta nosi nazwę U3. Sam posiadam takiego pendrive’a firmy Toshiba o pojemności 2 GB i bardzo sobie chwalę kilka darmowych programów, które w nim zainstalowałem.
Karty pamięci, dysk SSD
Innym zastosowaniem pamięci flash są produkowane w różnych standardach karty pamięci do aparatów cyfrowych, umożliwiające przechowywanie kilku gigabajtów danych. Skutkuje to powstaniem wielu rodzajów czytników tych kart, z których niektóre potrafią odczytywać kilka standardów. Koniecznie trzeba też wspomnieć o elektronicznych kartach bankowych, których jednym z elementów jest pamięć flash. No i wreszcie hit ostatnich miesięcy – wykonane z wykorzystaniem technologii flash dyski SSD (ang. Solid State Drive). Gdy spadnie cena tych urządzeń, dostaniemy bezgłośny dysk twardy o krótszym czasie dostępu oraz zdecydowanie większej odporności na wstrząsy, niż jego starszy brat, klasyczny HDD z wirującymi talerzami. Zużycie energii też jest o rząd niższe. Te cechy predysponują urządzenia SSD do zastosowania w laptopach. Jak widać na fotografii poniżej, obecnie oferowana pojemność jest już całkiem przyzwoita. A zapewne nie jest to ostatnie słowo producentów.
To tylko kwestia czasu – przyszłość dysków twardych wyraźnie zmierza ku technologii SSD. Za dwa lata ich ceny, jak sądzę, będą porównywalne z dzisiejszymi cenami HDD. Cóż – każda nowość kosztuje! W trzeciej części zajmę się przyszłością nośników informacji – bliższą i dalszą.