Historia informacji i jej przechowywania sięga prawdopodobnie samego początku gatunku homo sapiens. Prawdopodobnie, bo obecnie nikt nie jest w stanie temu wiarygodnie zaprzeczyć lub to potwierdzić. Pewną przesłanką potwierdzającą tę tezę jest określanie przez jedno z pierwotnych plemion, żyjące w dżungli Borneo i praktycznie izolowane od współczesnej cywilizacji, liczb powyżej 20 jako „mnóstwo”. Skojarzenie nasuwa się samo: zabrakło palców u rąk i nóg...
Spis treści
Uważam, że do lepszego zrozumienia całości niezbędne jest zdefiniowanie podstawowych pojęć. Pozwoli to uniknąć nieporozumień. Definicje, sporą część tekstu, inne informacje oraz rysunki zaczerpnąłem z Wikipedii. Definicje uważam za trafne, a jednocześnie, ze względu na status prawny, przepisanie informacji pochodzących z tego źródła nie jest plagiatem. Wyraźnie to zaznaczam, bo nie widzę powodów, aby się tego wstydzić. Tym, którzy myślą inaczej, proponuję napisanie podobnego artykułu na inny temat! Przecież wystarczy „jedynie” zebrać potrzebne dane, prawda?! Reszta tekstu to ogólnie dostępne informacje znalezione w sieci oraz wiedza własna. Czym więc jest informacja i jej nośnik?
Informacja (łac. informatio – wyobrażenie, pojęcie) to pojęcie o wielu definicjach w różnych dziedzinach. Zasadniczo informację postrzega się na dwa sposoby. Pierwszy można nazwać obiektywnym. Wywodzi się z fizyki i matematyki, w których informacja oznacza pewną własność fizyczną lub strukturalną obiektów. Zgodnie z drugim, subiektywnym (kognitywistycznym), informacją jest to, co umysł jest w stanie przetworzyć i wykorzystać do własnych celów. Oczywiście istnieją również inne definicje informacji, a kto jest ciekawy, już wie, gdzie ich szukać.
Nośnik informacji to przedmiot umożliwiający fizyczne zapisanie danego rodzaju informacji, a także jej późniejsze odczytanie (odtworzenie). Pod pojęciem nośnik danych najczęściej rozumie się przedmioty i urządzenia ściśle związane z komputerami. Niezależnie od technologii użytej do produkcji nośników danych oraz współpracujących z nimi urządzeń, które je odczytują, każdy taki tandem charakteryzują trzy podstawowe parametry: ilość zapisanych danych, ich trwałość i czas dostępu do nich.
Pozostało jeszcze przypomnieć, że w informatyce podstawową miarą informacji jest bit. Bit jest ilością informacji potrzebną do zakodowania, które z dwóch równie prawdopodobnych zdarzeń alternatywnych zaszło. Czyli do udzielenia odpowiedzi na pytanie, na które można odpowiedzieć „tak” lub „nie”. Wartość bitu przyjęło się oznaczać cyframi dwójkowymi 0 i 1. Takie podejście pomija znaczenie (semantykę), jakie niesie informacja, a skupia się jedynie na jej składni (syntaktyce). Dla ułatwienia operacji matematycznych bity pogrupowano w większe jednostki miary. Zakładam, że czytającym ten artykuł nie trzeba wyjaśniać, czym jest bajt, kilobajt, megabajt, gigabajt itd., chociaż bałagan w nazewnictwie jest straszny. Problem powstał z przybliżonej równości 103 ? 210. Wykładnik 3 w systemie dziesiętnym oznacza 1000, czyli 1 kilo jednostek. Ale 210 = 1024, i tu zaczął się problem, bo niezgodnie z systemem jednostek SI informatyczna brać z liczby 1024 też utworzyła przedrostek kilo. Natomiast sposób odróżniania bitu od bajta udało się ustalić: bit to b, bajt to B. Niektórzy producenci dysków twardych podają liczbę dostępnych na nich bitów w systemie dziesiętnym, inni – dwójkowym. O pomyłki i nieporozumienia łatwo. A już szczytem niekonsekwencji w nazewnictwie jest banalna dyskietka 3,5 cala, której pojemność określana jest na 1,44 MB. Tymczasem jej fizyczna struktura zawiera 18 dwustronnie zapisanych sektorów, każdy po 512 bajtów. Proste mnożenie daje nam 1 474 560 bajtów. Z tej zależności łatwo wyliczyć, że 1 MB = 1 024 000 bajtów. Tymczasem 106*1,44 = 1 440 000 bajtów. Jeżeli jednak przyjęto, że 1 kB = 210 bajtów, 1 MB = 220 bajtów itd., to 220 = 1 048 576 i wtedy 1 048 576*1,44 = 1 509 949,44 bajta. Jak widać, mamy trzy megabajty, każdy o innej zawartości bajtów. Pomieszanie z poplątaniem! Wprawdzie Międzynarodowa Komisja Elektrotechniczna (ang. International Electrotechnical Commision, IEC) zatwierdziła nowe przedrostki jednostek miar dla wielkości o podstawie 2, ale zatwierdzony standard nie jest powszechnie stosowany! Obecnie 1 kb to zazwyczaj 1024 bity, a 1 kB to 1024 bajty. Zważywszy na charakter portalu, zajmiemy się jedynie nośnikami informacji z punktu widzenia szeroko rozumianej informatyki. Zapewniam jednak, że patrząc historycznie, jest to niewielki i niekoniecznie najciekawszy fragment wiedzy o informacji i jej przechowywaniu. Ale każdy czyta to, co go interesuje i co lubi...

Nie jestem specjalistą i nie mam zielonego pojęcia o tym, ale tak na zdrowy rozum: XVIII wiek to lata 1701-1800, a wtedy chyba jeszcze nikt nie robił takich rzeczy, prawda? W końcu pierwsze prawo Kirchhoffa zostało sformułowane dopiero w 1845 roku, więc nie wyobrażam sobie, żeby o tak zaawansowanych na owe czasy urządzeniach myślał ktoś ponad pół wieku wcześniej. Jeśli te wszystkie informacje były czerpane z Wikipedii, gdzie każdy może coś wpisywać, to być może autor haseł na tamtej stronie nie znał się na chronologii i pomylił wiek XIX z XVIII, a teraz błąd przywędrował tutaj.