HVD - nośnik z holograficznym zapisem informacji
W najbliższej przyszłości można się spodziewać licznego wejścia na rynek formatu o nazwie HVD (ang. Holographic Versatile Disc), którego nośniki będą miały pojemność rzędu 1 TB. Urządzenia takie właściwie już są produkowane, ale ze względu na koszt słychać o nich niewiele. Wprawdzie działają, ale trudno oprzeć się wrażeniu, że są to prototypy. Jednak zapewne upowszechnią się niebawem, tak jak to było z DVD.
Aby opisać zasadę działania HVD, trzeba jednak wiedzieć, na czym właściwie polega holografia! Z całym szacunkiem, ale podejrzewam, że pewnie wszyscy Czytelnicy o niej słyszeli, ale nieco dokładniej zasadę działania znają nieliczni. Natomiast zakładam, że pojęcia dyfrakcji i interferencji fal oraz mechanizmy ich powstawania są znane. Słowo hologram jest pochodzenia greckiego: holos – całość, graphos – opisywać. Czyli mówimy o sposobie całkowitego opisania jakiejś rzeczy (obiektu). Jak powstaje zapis holograficzny, a właściwie holograficzna fotografia obiektu?
Jak widać, interferencji ulegają dwie wiązki światła: jedna (górna) jest kierowana za pomocą zwierciadła na fotografowany przedmiot, odbija się od niego i pada na kliszę, a druga (dolna) stanowi tzw. wiązkę odniesienia. Oczywiście najlepsze rezultaty daje użycie światła laserowego, które zapewnia zbliżoną do ideału monochromatyczność oraz spójność fazową i amplitudową. W rzeczywistości wszystko to wymaga dość skomplikowanych zabiegów technicznych, ale dzięki nim unikamy zaniknięcia prążków interferencyjnych (dyfrakcji) na skutek nadmiernej różnicy długości dróg przebytych przez światło. Mimo naszych starań pozostałe niedoskonałości powodują, że uzyskany obraz jest superpozycją (nałożeniem) dużej liczby interferencji poszczególnych składowych spektralnych światła, co prowadzi do pogorszenia ostrości obrazu wypadkowego. W końcu obie wiązki naświetlają drobnoziarnistą kliszę fotograficzną. I tu niespodzianka! Po wywołaniu zamiast obrazu przedmiotu zobaczymy na niej jedynie prążki interferencyjne! Przykładowy hologram widać na rysunku poniżej:
Jak odbywa się odtwarzanie obrazu holograficznego? Aby zobaczyć obraz holograficzny, wystarczy oświetlić utrwalony na kliszy fotograficznej hologram, który działa jak siatka dyfrakcyjna, wiązką odniesienia.
Rezultat widać na fotografii poniżej:
Czary?! Nie! To „tylko” współpracujące ze sobą dyfrakcja i interferencja. Jak skonstruowany jest dysk HVD, jak zapisywana jest na nim informacja i dlaczego jego pojemność sięga 1 TB? Aby odpowiedzieć na te pytania, trzeba przypomnieć, jak zapisywane i odczytywane są dane na dyskach CD i DVD. Wyjaśnia to poniższy rysunek.
Pity i landy są umieszczone sekwencyjnie wzdłuż spiralnej ścieżki pokrywającej równomiernie powierzchnię dysku. Reprezentują one ciąg jedynek i zer, składający się na zapisywaną informację. Dane są zapisywane w kierunku od środka do zewnątrz przy użyciu diody laserowej, która wypala pity, pozostawiając nietknięte landy. Informacja odczytywana jest za pomocą fotodetektora. Oświetlony przez promień lasera pit zostaje rozproszony, z kolei land po oświetleniu trafia do detektora. W rezultacie powstaje ciąg zero-jedynkowy, którego dalsza obróbka jest już banalna. Oczywiście wszystko to wsparte jest bardzo precyzyjną mechaniką. Przypominam, że podstawowa różnica pomiędzy zapisem CD i DVD polega na długości fal emitowanych przez diodę używaną do zapisu i odczytu. DVD zapisywane jest falą o mniejszej długości, co zwiększa ilość informacji, którą możemy zapisać.
Informację na dysku HVD można zapisać na kilka sposobów. Jedno z możliwych rozwiązań przedstawia poniższy rysunek.
Przy tej metodzie w miejscu fotografowanego przedmiotu mamy umieszczony ciekłokrystaliczny, przestrzenny modulator światła SLM (ang. Spatial Light Modulator), który zamienia dane z komputera na dwuwymiarową matrycę ciemnych i jasnych punktów. Wiązka światła laserowego napotyka półprzepuszczające lustro i dzieli się na dwie wiązki: przedmiotową (sygnałową) i referencyjną (odniesienia). Zapamiętany w SLM obraz strony danych nakładany jest na wiązkę przedmiotową. Matryca SLM ma zazwyczaj wymiar 1024x1024 punkty, przy czym ciemny punkt to logiczna jedynka, a jasny to logiczne zero. Na powierzchni dysku obie wiązki interferują ze sobą, tworząc hologram. Fizycznie zapis następuje identycznie jak na dysku CD lub DVD. Jednakże jest podstawowa różnica: jednostką informacji nie jest pojedynczy bit, a cała macierz 1024x1024 punkty, czyli 1 Mb danych.
Aby odczytać dane z dysku HVD, należy użyć nie jednego detektora, ale matrycy detektorów o wymiarach 1024x1024 punkty. Zazwyczaj jest to światłoczuły element CCD (ang. Charge Coupled Device). Przedstawia to rysunek poniżej.
Z kolei powierzchnię zapisanego dysku HVD oraz obraz danych odtworzony przez matrycę CCD widać na fotografiach poniżej.
Aby Czytelnik uświadomił sobie, z jaką precyzją musi działać napęd HVD, trzeba nieco dokładniej opisać budowę dysku HVD. Popatrzmy na poniższy rysunek.
Jak widać, dysk HVD składa się z kilku warstw. Kolejno mamy:
- przezroczyste podłoże (Substrate 1) pokryte odblaskową warstwą aluminium,
- warstwę dystansową (Gap Layer),
- dichroiczną warstwę odblaskową (Dichroic Mirror Layer),
- fotopolimerową warstwę do zapisu danych (Photopolymer Recording Layer),
- podłoże z poliwęglanu (Substrate 2).
Zielone (green) lub niebieskie (blue) światło lasera stosowane jest do zapisu i odczytu, czerwone zaś (red) służy do pozycjonowania głowicy napędu, nie zakłóca przy tym odczytu i zapisu danych. Przedstawiony powyżej dysk HVD wraz z napędem został zaprezentowany przez firmę Optware we wrześniu 2005 r. Pojemność dysku wynosi 1 TB, przy szybkości zapisu i odczytu 1 GB/s oraz średniej gęstości zapisu 100 razy większej niż na dysku DVD. W tej sytuacji można śmiało sparafrazować pewne znane powiedzenie i ogłosić: HVD ante portas! Tyle tylko, że tym razem nie ma powodu do obaw!
Nanorurki węglowe
Przeciwnie niż holografia, technologia ta jeszcze nie może się pochwalić konkretnymi rozwiązaniami użytkowymi o większym stopniu skomplikowania. Jednak uważam, że ma wprost niesamowity potencjał. Badania są cały czas prowadzone, a wyniki uzyskiwane w skali laboratoryjnej potwierdzają oczekiwania i zapowiadają prawdziwy przełom w wielu dziedzinach techniki. Czym więc jest nanorurka? Wystarczy spojrzeć na rysunek poniżej.
Nanorurki węglowe to zbudowane z węgla struktury nadcząsteczkowe, mające postać walców ze zwiniętego grafenu (jednoatomowej warstwy grafitu). Najcieńsze mają średnicę rzędu nanometra, a ich długość może być miliony razy większa. Ścianka nanorurki ma grubość pojedynczego atomu. Nanorurki są niezwykle wytrzymałe na rozrywanie, mają unikalne własności elektryczne oraz są znakomitymi przewodnikami ciepła. Te własności sprawiają, że są badane jako obiecujące materiały do zastosowań w nanotechnologii, elektronice i optyce, a także jako element konstrukcyjny i narzędziowy. Istnieje kilka typów nanorurek, różniących się układem atomów oraz liczbą warstw. Różnice wyraźnie widać na zaprezentowanym rysunku. Istnieje też możliwość wyprodukowania nanorurek zwiniętych w nanotorusy, o zaskakujących parametrach magnetycznych. W interesującej nas dziedzinie nanorurki z powodzeniem zostały już użyte do produkcji tranzystorów, które mogą być przełączane zaledwie jednym elektronem. Są też moduły pamięci stworzone z wykorzystaniem metod litografii, która pozwala na usuwanie błędnych struktur. Spore osiągnięcia na tym polu ma firma IBM. Jeżeli do tego dodać, że nanorurka przewodzi ciepło 15 razy lepiej niż miedź, teoretycznie powinna przewodzić tysiąckrotnie większy prąd niż przewód miedziany o porównywalnym przekroju oraz zachowuje strukturę i właściwości do 750°C, to rewolucja w elektronice jest pewna. Jedynym problemem jest opanowanie bardziej efektywnej technologii produkcji nanorurek, która na razie jest droga i mało wydajna. Obecnie udaje się wyprodukować nanorurki o długości kilku centymetrów. Na potrzeby elektroniki wystarcza, ale to jeszcze zbyt mało w innych dziedzinach techniki. Jednak to tylko kwestia czasu i pieniędzy.
HVD i nanorurki to bez wątpienia dwie najbardziej perspektywiczne technologie, które niebawem zagoszczą w naszych PC, gdy ceny odpowiednio spadną oraz zostanie dopracowana i udoskonalona technologia produkcji. Jednocześnie uczeni pracują nad wieloma innymi technologiami, które również mogą wnieść rewolucyjne zmiany nie tylko do sposobu przechowywania informacji, ale również metod jej użycia. Ponieważ nie jestem wszechwiedzący, wsparłem się literaturą.
Poniżej opisane informacje opracowałem na podstawie książki Tomasza Bilskiego PAMIĘĆ – nośniki i systemy przechowywania danych (Wydawnictwa Naukowo-Techniczne, Warszawa 2008). Zaznaczam to wyraźnie, bo zarzut plagiatu to ostatnie, co chciałbym usłyszeć po opublikowaniu mojego artykułu.
Pamięć MODS
Zasada jej działania oparta jest na modulacji nachylenia krawędzi rowka odczytywanej ścieżki, usytuowanego pomiędzy pitem (ślad wypalony laserem) a landem (niewypalony fragment rowka). Kąt ten może przyjmować 332 różne wartości. W rezultacie pojemność takiego dwuwarstwowego i dwustronnego dysku sięga 1 TB. Czy ta technologia się przyjmie, okaże się nie wcześniej niż w 2010 roku, gdy zadebiutuje na rynku.
Pamięć polimerowa
Pamięć ta wykorzystuje jedną z cech polimerów ciekłokrystalicznych. Cienka, o grubości molekuły warstwa polimeru zbudowana jest z wydłużonych, równoległych molekuł. Ułożona na niej druga warstwa składa się z molekuł obróconych o niewielki kąt względem pierwszej warstwy. Na skutek tego każda warstwa ma typowe dla siebie pasmo odbicia wiązki świetlnej o danej długości i polaryzacji. Nośnikiem warstw polimeru może być taśma, karta, dysk, a dane są zapisywane i odczytywane za pomocą jednego lub kilku laserów. Firma REVO zmodyfikowała budowę warstw przez zmieszanie ciekłokrystalicznych polimerów z materiałami światłoczułymi. W rezultacie oddziaływania promieni ultrafioletowych powstająca spolimeryzowana powłoka jest stabilna cieplnie i umożliwia odczyt danych z kilku warstw. Należy się spodziewać nośników danych o pojemności kilku TB.
Pamięć proteinowa
Światłoczułe proteiny, odkryte w bakteriach Halobacterium halobium, zamieniają energię światła w energię umożliwiającą metabolizm. Zachodzący proces jest bardzo podobny do fotosyntezy w roślinach. Proteiny te są odporne na temperaturę (do 140oC), a zawarte w nich chromofory przyjmują wykrywalne i przewidywalne stany podczas naświetlania światłem o różnej długości fali. Co najważniejsze, można je ustabilizować polimerowo i stworzyć odpowiednie matryce pamięci, które z kolei umożliwiają produkcję bloków pamięci. Zawartość pamięci działającej na tej zasadzie może być kasowana na dwa sposoby: termicznie (całość danych) lub światłem o długości fali 413 nm (wybrane strony pamięci). Setki megabajtów danych mogą być przechowywane w kilku miligramach substancji, której wyprodukowanie nie sprawia najmniejszego problemu.
Pamięć fluorescencyjna
Działanie tej pamięci opiera się na zjawisku emisji światła, zwanym fluorescencją. Wzbudzenie materiału nośnika następuje po oświetleniu go wiązką światła laserowego. Nośnik charakteryzuje się niewielkim współczynnikiem pochłaniania światła. Umożliwia to użycie wielu warstw w jednym bloku pamięci.
Pamięć dwufotonowa
Pamięć ta umożliwia równoległy dostęp do całej strony danych. Zasada działania polega na jednoczesnej absorpcji dwóch fotonów, których łączna energia jest równa różnicy pomiędzy początkowym a końcowym stanem materiału stosowanego jako nośnik. W rezultacie następuje zmiana molekularnej struktury materiału, co oznacza zmianę jego różnych parametrów. Do zapisu używa się dwóch wiązek promieni lasera: danych i adresowej, o długości fal, odpowiednio, 532 i 1064 nm. Zapis następuje w miejscu przecięcia się wiązek. Wiązka danych jest modulowana i kierowana na odpowiednią płaszczyznę nośnika. Wiązka adresowa jest ustawiona prostopadle do wiązki danych i również ogniskowana na tej samej płaszczyźnie nośnika. Strona danych jest rejestrowana, gdy obie wiązki padają jednocześnie na płaszczyznę zapisu. Z kolei odczyt wymaga użycia tylko jednej wiązki, która umożliwia wykonanie pomiaru określonej właściwości optycznej nośnika. Jeżeli w danym punkcie nie zapisano danych, to wiązka lasera przechodzi przez nośnik bez wywołania efektu fluorescencji. Jeżeli wiązka napotyka zapis (daną), to wywołuje emisję fluorescencyjną. Odczytywany obraz jest filtrowany i następnie podawany na matrycę CCD, przekształcającą sygnał na postać cyfrową. W połowie lat 90. użyto do skonstruowania takiej pamięci materiału o nazwie spirobenzopyran. Osiągnięto gęstość zapisu rzędu 1 Mb/cm3. Prace trwają.
Pamięć DNA
Jedną z koncepcji jest zastosowanie cząsteczek DNA w charakterze nośnika informacji. Cząsteczki DNA mogą tworzyć różnorodne struktury, które mają zróżnicowane i jednocześnie programowalne właściwości. Łańcuch DNA można łatwo modyfikować za pomocą enzymów. Zmiana stanu zachodzi pod wpływem dostarczonej energii świetlnej, odczyt zaś jest możliwy dzięki właściwościom fluoroscencyjnym cząsteczki DNA o odpowiedniej strukturze. Zaletą DNA jest możliwość łączenia go ze szkłem, aluminium i krzemem. Ułatwia to konstruowanie modułów pamięci. Gęstość zapisu jest rzędu PB/mm3. Prace trwają, również nad wykorzystaniem cząstek DNA do przetwarzania danych i skonstruowania komputerów DNA!
Pamięć elektryczna zmiennofazowa
W pamięciach elektrycznych PCM (ang. Phase Change Memory) informacja jest reprezentowana przez dwa stany nośnika, który istnieje w stabilnej postaci amorficznej i krystalicznej w temperaturze pokojowej. Zmiana stanu następuje po podgrzaniu punktu nośnika przez wiązkę elektronów emitowaną z mikroskopijnego ostrza. Odczyt również polega na emisji wiązki elektronów, ale o mniejszym natężeniu, i jednoczesnym pomiarze parametru charakteryzującego właściwości elektryczne nośnika, np. oporności. Prace trwają. Przewiduje się osiągnięcie gęstości zapisu rzędu Tb/cm2. W dość powszechnej opinii pamięci PCM zastąpią w przyszłości pamięci Flash.
Pamięć ferroelektryczna
Do skonstruowania takiej pamięci próbuje się wykorzystać materiały, które można polaryzować elektrycznie. Ładunki w materiale są separowane i powstaje pole elektryczne z dwoma przeciwnymi polaryzacjami. Orientacja pola może być zmieniana impulsem napięciowym. Podtrzymanie stanu takiej pamięci nie wymaga energii. Firma Colossal Storage produkuje takie pamięci, wykorzystując do tego nośnik o strukturze krystalicznej, którego właściwości można zmieniać, dobierając pierwiastki składowe. Dane zapisywane są przy użyciu wiązki promieniowania ultrafioletowego lub niebieskiego światła. Cząsteczki nośnika absorbują energię fotonów i elektrony przemieszczają się na orbity przewodzące. Elektrony przepływają zależnie od kierunku pola elektrycznego. Po ustaniu działania światła i pola cząsteczka nośnika pozostaje spolaryzowana i zapamiętuje potencjał elektryczny. Może on być dodatni lub ujemny i utrzymuje się do czasu ponownego działania na nośnik pola elektrycznego i światła. Odczyt odbywa się podobnie jak zapis, ale nośnika nie poddaje się działaniu pola. Wiązka światła lub promieniowania po odbiciu się od naelektryzowanych cząsteczek pada na fotodiodę, która jest w stanie wychwycić niewielkie zmiany dyfrakcji fali świetlnej. Przewiduje się osiągnięcie gęstości upakowania rzędu 500 Gb/cal2, przy minimalnej średnicy punktu, który można zapisać, rzędu 30 nm. Niestety, na razie osiągane pojemności pamięci FeRAM są wielokrotnie mniejsze niż pamięci flash.
Pamięć molekularna
W elektrycznej pamięci molekularnej dane są przechowywane w postaci ładunku elektrycznego, podobnie jak w półprzewodnikowej pamięci CMOS. Istotna różnica polega na tym, że ładunek magazynowany jest w cząsteczce strukturalnie podobnej do chlorofilu, o średnicy 1 nm. Umożliwia to 10-krotne zwiększenie gęstości zapisu oraz, co najistotniejsze, do produkcji można wykorzystać istniejące linie technologiczne produkujące układy CMOS. Opracowana w firmie ZettaRAM pamięć molekularna, wykorzystująca nanostruktury multiporfiryny, osiągnęła pojemność rzędu megabitów.
Pamięć jednoelektronowa
W drugiej połowie lat 80. pojawiły się możliwości sterowania ruchem pojedynczego elektronu. Pierwszy tranzystor przełączany jednym elektronem opracowała firma Bell w 1987 roku. Obecność elektronu to logiczna 1, jego brak to logiczne 0. Stąd już blisko do skonstruowania pamięci o gęstości upakowania stukrotnie większej niż w obecnych technologiach półprzewodnikowych i minimalnym poborze mocy. Aby nie było zbyt pięknie, obecnie naukowcy rozwiązują problem, jak odczytać zawartość pamięci bez jej utraty i jak utrzymać ją przez dłuższy czas.
Pamięć MRAM
Działanie pamięci MRAM (ang. magnetic RAM) opiera się na efekcie tunelowania kwantowego. Taka pamięć jest bardzo pojemna, nie wymaga dostarczania energii w celu przechowania informacji i jednocześnie zapewnia krótki czas dostępu oraz możliwość adresowania dowolnie wybranej komórki. Fizycznie moduł takiej pamięci ma postać oddalonych od siebie i prostopadle ułożonych warstw elektrod, odpowiadających za wybór bitów i słów. Miejsce ich skrzyżowania jest komórką pamięci. Komórka ma budowę wielowarstwową; składają się na nią oddzielone dielektrykiem warstwy ferromagnetyczne. Pamięć tego typu charakteryzuje się doskonałym czasem zapisu i odczytu informacji, rzędu kilku nanosekund.
Magnetyczne materiały światłoczułe
Udało się opracować takie materiały magnetyczne, których namagnesowanie można zmieniać wyłącznie za pomocą światła. W USA wytworzono molekuły organiczne, które zmieniają swój kształt pod wpływem niebieskiego światła. To wywołuje zmianę właściwości magnetycznych. Odwrócenie procesu umożliwia naświetlenie molekuł światłem zielonym. Obecnie metoda ta funkcjonuje w bardzo niskich temperaturach, ale prace trwają od 2002 roku.
Pamięć magnetyczno-białkowa
Istotnym problemem wszelkich technologii magnetycznych jest duża nieregularność kształtów i wymiarów cząsteczek materiału magnetycznego. Wynaleziono sprytne rozwiązanie tego problemu. Cząsteczki ferromagnetyczne umieszcza się wewnątrz cząsteczek białka zwanego ferrytyną. Białko to, wiążące żelazo w organizmach żywych, charakteryzuje się regularnymi kształtami. Ferrytyna tworzy z 24 identycznych części sferę o średnicy 12 nm. Stosując wyszukaną technologię, usuwa się żelazo zmagazynowane wewnątrz sfery i zastępuje je granulką o średnicy 8 nm, będącą stopem platyny i kobaltu. Warstwę regularnych cząstek magnetycznych umieszcza się na powierzchni dysku i wypala białko. W rezultacie otrzymuje się matrycę równomiernie rozmieszczonych, odseparowanych i jednorodnych cząstek magnetycznych. Szacuje się, że możliwe będzie osiągnięcie gęstości rzędu 5 Tb/cm2.
Pamięć termomechaniczna
W pamięciach MEMS (ang. micro electromechanical system) do zapisu informacji usiłuje się wykorzystać energię termiczną i siłę nacisku mikroskopijnej igły zapisującej. Prace prowadzi głównie firma IBM, ale nie tylko. Jej dziełem jest metoda Millipede, w której nośnikiem informacji jest warstwa polimeru o grubości 50 nm, umieszczona na warstwie krzemu. Pojęcie o wymiarach i wymaganej precyzji daje to, że matryca pamięci o boku 6,5 mm zapisywana jest przez 4000 sond (igieł krzemowych), zakończonych stożkowymi ostrzami o średnicy 2–30 nm. Podczas zapisu podgrzane do temperatury 400°C ostrze powoduje powstanie wgłębienia w polimerze o średnicy 10 nm. Odczyt następuje przez podgrzanie igły do temperatury 300°C. W miejscu, gdzie igła napotyka wgłębienie w polimerze, zwiększa się rozpraszanie ciepła i spada temperatura igły, co wpływa na jej oporność. Oporność igły jest analizowana w procesie odczytu, co pozwala odczytać zapisaną informację. Podgrzanie polimeru i utrzymanie go przez kilka sekund w temperaturze 150°C powoduje wygładzenie zapisanej uprzednio powierzchni, która jest gotowa do zapisu nowej informacji. Problemem tej technologii jest zużycie igieł. Przewiduje się uzyskanie gęstości zapisu do 500 Gb/cal2.
Pamięć FIB
Odczytanie w odległej przyszłości dzisiaj zapisanych danych może okazać się niemożliwe z powodu braku stosownych urządzeń lub niemożności zdekodowania i interpretacji danych. Pamięć FIB (ang. focus ion beam) w założeniu ma umożliwić przechowanie danych przez okres rzędu tysięcy lat. Strumień jonów żłobi informację w materiale, takim jak krzem lub stal, pokrytym warstwą złota. Przewiduje się zapis informacji w formatach: binarnym, alfanumerycznym i graficznym. Przewiduje się osiągnięcie gęstości zapisu rzędu 20 Gb/cal2. Informację, zależnie od jej formatu, można odczytywać różnymi metodami optycznymi. Jeżeli Ziemia i jej mieszkańcy nie unicestwią się w globalnym konflikcie, to pamięć FIB będzie nieocenionym źródłem informacji o dzisiejszej kulturze i technologii dla archeologów przyszłości.
Pamięć jednoatomowa
Bez wątpienia najlepszym sposobem zwiększenia stopnia upakowania bitów informacji jest zmiana sposobu, w jaki są reprezentowane. Teoretycznie rzecz biorąc, zamiast kilku milionów (miliardów?) atomów na dysku twardym, które reprezentują jeden bit informacji, wystarczy do tego celu jeden atom. Łatwo powiedzieć, ale próby i badania są prowadzone. Już w 2002 roku powstał moduł pamięci, w którym do przechowywania bitów w temperaturze pokojowej użyto pojedynczych atomów. Jako nośnika użyto krzemu pokrytego złotem. Zapis polega na dodaniu lub usunięciu pojedynczego atomu krzemu z grupy 20 innych. Proces odczytu jest odwrotnością zapisu i wykrywa atom nadmiarowy lub jego brak. Czynności te wykonuje się przy użyciu technologii wykorzystywanych w skaningowych mikroskopach tunelowych. Spodziewana gęstość zapisu to około 250 Tb/cal2.
Pamięć w komputerach kwantowych
Każdego, kto chce zrozumieć specyfikę pamięci, która ma działać w komputerze kwantowym, gorąco zachęcam do przeczytania doskonałego artykułu autorstwa śp. R. Sobkowskiego pt. „Komputer kwantowy – krok naprzód”.
Coraz popularniejszy staje się pogląd, że konieczna jest zmiana nie tylko technologii (przecież tak naprawdę nasz PC to ciągle reanimowany staroć sprzed 25 lat!), ale również sposobu przechowywania danych. Za wzór przyjmuje się ludzki mózg, w którym informacja nie jest przechowywana jako zbiór danych posegregowanych w komórkach pamięci, ale jako zbiór pewnych wzorców. Oczywiście zupełnie inaczej wygląda dostęp do informacji. Próbą zbliżenia technologii elektronicznych do zasad funkcjonowania mózgu człowieka jest zastosowanie zjawisk kwantowych. Komputer kwantowy będzie wykorzystywał podstawę zjawisk kwantowych: obiekty kwantowe mogą występować jednocześnie w dwóch stanach. Jednocześnie, zgodnie z zasadami mechaniki kwantowej, obiekt kwantowy mający dwa stany (0 i 1) może znajdować się względem nich w dowolnej superpozycji. Innymi słowy, może być w dowolnym stanie pośrednim między stanami 0 i 1. Bit kwantowy, lub też kubit (ang. quantum bit), jest fizycznie reprezentowany przez układ o dwóch wyróżnionych stanach. Układem takim może być atom lub jon z dwoma poziomami energetycznymi, co pozornie pozwala na przechowanie w jednym kubicie nieograniczonej ilości informacji. Jednak jej odczyt niszczy superpozycję stanów i daje wynik 0 lub 1. Informatyka kwantowa to odległa przyszłość ze względu na problemy konstrukcyjne i implementacyjne. Jednym z nich jest niestabilność stanów kwantowych i ich wrażliwość na zakłócenia. Prowadzi to do utraty kwantowej spójności, czego konsekwencją jest wysoki poziom błędów. Ten i inne problemy są stopniowo rozwiązywane. W 2005 roku zademonstrowano pamięć zdolną do utrzymania kubitów w wielostanowych superpozycjach, bez utraty ich wzajemnej zależności, przez okres 10 s. Niby niewiele, ale zważywszy na złożoność zagadnienia – wcale nie tak mało. Prace nad komputerami kwantowymi są ściśle tajne. Bez wątpienia rękę na pierwszej w pełni funkcjonalnej maszynie tego typu położy wojsko, głównie z powodu jej wprost fantastycznych możliwości w dziedzinie kryptologii.
Z ostatniej chwili
Poszukując w sieci materiałów do artykułu, napotkałem informacje o dwóch nowych technologiach: memristorze i PMC.
Nie jest się trudno domyślić, że memristor jest opornikiem z pamięcią, który działa, wykorzystując zdolność materiału do zmiany swojej rezystancji i jej utrzymania przez dowolnie długi czas. Zmiana zachodzi na skutek przyłożenia do niego napięcia sterującego. Po jego zaniku wartość rezystancji już się nie zmienia. Teoretyczne podstawy istnienia takiego materiału były znane już 37 lat temu, ale ówczesna technologia nie pozwalała na jego wyprodukowanie. Zastosowanie tej technologii będzie olbrzymie: od szybko działających pamięci o ogromnej pojemności poprzez budowę tranzystorów o znacznie mniejszych rozmiarach, niż umożliwiają to obecne technologie, do stworzenia procesorów o rekonfigurowalnych parametrach.
PMC (ang. programmable metallization cell) jest technologią wytwarzania nowego rodzaju pamięci flash. Dzięki nowej technice manipulowania naładowanymi cząsteczkami miedzi w skali molekularnej naukowcy z Arizona State University opracowali pamięć o nieporównywalnie lepszych parametrach. Pamięć PMC przechowuje informację w całkowicie odmienny sposób niż pamięć flash. Zamiast przechowywania bitów w postaci ładunku elektrycznego technologia ta tworzy nanorurki z atomów miedzi, wielkości wirusa, do zapisu plików binarnych zer i jedynek. Twórca nowej technologii, o swojsko brzmiącym nazwisku Kozicki, już zainteresował wynalazkiem firmy: Mikron Technologies, Quimonda i Adesto. Według wynalazcy pierwsze chipy z nową pamięcią powinny się ukazać w ciągu 18 miesięcy.
Zakończenie
Wiem, wiem – poszczególne podrozdziały są pobieżne, często brakuje istotnych szczegółów lub ciekawostek. Jednakże trzymałem się starej, dobrej zasady: jeżeli chcesz widzieć las, nie oglądaj drzew! Zwracam także uwagę Czytelników, że w tytule artykułu jest słowo „zarys”. Wyczerpujący opis poruszonych (a także kilku pominiętych) zagadnień z pewnością można by zamienić na baaardzo grubą książkę! W rezultacie niniejsza publikacja nigdy by nie powstała! Moją intencją było jedynie przypomnienie, że nośniki informacji też mają swoją ciekawą historię. Postępu w IT zahamować nie sposób, a jego granice wyznacza jedynie ludzka wyobraźnia. Komu brakuje bardziej szczegółowych informacji o tej lub innej technologii, ten bez problemu znajdzie je w internecie. Liczę też na wnikliwe uwagi i szczegółowe uzupełnienia pominiętych zagadnień – w komentarzach do artykułu. Co wiele głów, to nie jedna...