W 1993 roku, a więc dwie dekady temu, świat komputerów oraz elektroniki użytkowej miał już sporo lat na karku, ale wyglądał zupełnie inaczej. Przeciętny komputer osobisty, znany dziś ogólnie jako pecet, niemal zawsze był zamknięty w szpetnej obudowie o kolorze firany, która co najmniej rok pralki nie widziała. Uruchomienie go czasami wiązało się z zestawem atrakcji. Główną było czekanie, aż na ekranie kineskopowego monitora pojawi się obraz. Niekiedy nie mogło się obyć bez włożenia do stacji dyskietek odpowiedniego nośnika. Aby cokolwiek uruchomić, najpierw trzeba było trochę popisać na klawiaturze. Niektórzy mieli ten luksus, że pracę mogli sobie ułatwić myszką – z jednym lub co najwyżej dwoma przyciskami. Obraz? Cudowna pikselioza oraz 16, a czasem nawet 256 kolorów! Żadnego przycisku Start czy Docka w systemach „okienkowych”... Chwila nieuwagi, a pulpit mogą przysłonić dziesiątki otwartych okien.
Telefon komórkowy? Owszem, były wtedy takie przenośne cegły komunikacyjne, z odstającymi antenami, ale mieli je tylko nieliczni. Same urządzenia były potwornie drogie, poza zasięgiem przeciętnego człowieka, a w dodatku ceny za połączenia skutecznie odstraszały od marzeń o komórce. SMS i MMS były więc dla Kowalskiego niedostępne. Aby wysłać życzenia imieninowe lub świąteczne, korzystał z telefonu stacjonarnego lub na przykład kartki pocztowej.
Kto chciał obejrzeć film, po prostu szedł do kina. Nie każdemu uśmiechała się taka perspektywa, a filmu rok lub pięć lat po premierze obejrzeć w ten sposób zazwyczaj się nie da. Można go więc było wypożyczyć. Nie pozostawało więc nic innego jak zebrać się w sobie i wyprowadzić swą cielesność z domu, udając się do wypożyczalni kaset VHS. Po seansie warto było taśmę przewinąć do początku, w przeciwnym razie groziła nawet kara.
Muzyka? Żaden problem! W domu wieża stereo; odtwarzacz płyt kompaktowych nie był w 1993 roku już aż tak drogim urządzeniem, aby nie można było sobie na niego pozwolić. W tamtym czasie jednak wciąż najpopularniejszym nośnikiem były kasety kompaktowe (tzw. magnetofonowe). Kasety nie zamykały muzyki w domowych pieleszach. Przenośne odtwarzacze były powszechnie dostępne, a polski rynek, jak wiele innych, był zalany chińską „taniochą” marki Panasonix, Akaiwa, SQNY, Phillips i innymi podróbkami, które często grały tak mizernie, że uszy więdły, ale ich posiadacze i tak się cieszyli z możliwości noszenia ulubionej muzyki w kieszeni lub przy pasku od spodni.
Wszystko pięknie, wszystko fajnie, ale co tam się w tym wielkim świecie dzieje? Czy Whitney Houston ma szansę zdobyć MTV Movie Award za rolę w filmie The Bodyguard? Który film zgarnie najwięcej Oskarów i dlaczego jest to Schindler's List? Co o Lechu Wałęsie piszą w Nowej Zelandii? W 1993 roku przepływ informacji wyglądał zupełnie inaczej niż dziś. Internet co prawda już istniał, ale możliwość przeglądania go była do tego czasu zarezerwowana dla nielicznych, a i ci opierali się niemal wyłącznie na czystym tekście. W 1993 roku głównym źródłem informacji była telewizja, gazety (w tym już wtedy bardzo popularne tabloidy) oraz radio. Jak łatwo się domyślić, człowiek wówczas był wyłącznie odbiorcą gotowego materiału. Tylko w niektórych krajach funkcjonowały czysto informacyjne stacje telewizyjne, które mogły przekazywać naprawdę świeże doniesienia, choć i tak często z opóźnieniami.
Nie było też problemów z komputerową rozrywką. Gier już wtedy było mnóstwo, i to w wersjach dla wielu różnych platform, choć akurat ten „prawdziwy pecet” pod tym względem wypadał najsłabiej. Tu prym wiodły komputery marki Commodore i Atari. Obok nich funkcjonowały automaty do gier, które wciąż cieszyły się dużą popularnością. Nie sposób też zapomnieć o legendarnych radzieckich „jajkach” firmy Elektronika, które można było kupić przede wszystkim na targowiskach.
Czy świat był wtedy jakiś dziwny? A może dziwny jest teraz? Co się zmieniło, no i jak się zmieniało? Co się udało, a co nie? Czy pamiętamy to, co doprowadziło nas do punktu, w którym jesteśmy dziś? Ja... właśnie o tym.
Mozaika z krzemową zagładą
Jeśli mamy się zająć dwiema ostatnimi dekadami, to prosta matematyka nakazuje rozpocząć od 1993 roku. Czy to właśnie wtedy pojawił się pierwszy Apple Macintosh? Pierwszy smartfon? Może Windows 95, który rzekomo rozpoczął erę komputerów multimedialnych? Pierwszy laptop? Telewizja cyfrowa? Odpowiedź na każde z tych pytań brzmi: nie. W 1993 roku nie pojawiło się wiele nowych produktów, technik czy chociażby koncepcji. Wszystko to, co wymieniłem powyżej, miało ogromny wpływ na rozwój „cyfrowej cywilizacji”, ale dokładnie 20 lat temu świat ujrzał trzy elementy dużej układanki. Były przełomowe i moim zdaniem za ich sprawą pokolenie nastolatków z lat 90. ubiegłego wieku stworzyło fundamenty cyfrowego świata, który otacza nas dziś.
W lutym 1993 roku firma Apple poinformowała, że przez 9 lat wprowadziła na rynek 10 milionów komputerów Macintosh. W lipcu zaś do sklepów trafiło pierwsze wydanie Windows NT: Microsoft po raz pierwszy zaoferował system operacyjny przeznaczony przede wszystkim dla klientów biznesowych. Dziś wiemy, że NT ostatecznie wyparł linię systemów opartych na MS-DOS. W tym samym roku gigant z Redmond pochwalił się tym, że ze wszystkich wersji Windows korzysta 25 milionów ludzi (nie licząc piratów). Także w 1993 roku Apple zakończyło pewną erę; w listopadzie zaprzestano produkcji komputerów Apple II, opartych na 8-bitowych procesorach MOS Technology 6502.
22 marca 1993 roku na rynku pojawiły się nowe procesory Intela. Wcześniej sporo osób spodziewało się, że owe układy będą się nazywać 586 lub i586, ponieważ miały reprezentować piątą generację procesorów w architekturze x86. Intel postanowił jednak, że zerwie z tradycją i swojemu nowemu dziecku nada nowe imię, i to takie, którego nie będzie kopiować konkurencja (np. AMD). Piąta generacja procesorów x86 Intela otrzymała nazwę Pentium i trafiła do sprzedaży przy mocnym wsparciu zmasowanej kampanii marketingowej.
Pentium był pod pewnymi względami wyjątkowy i to chyba tłumaczy nową politykę firmy, chociażby w kwestii nazewnictwa. Układy Pentium były pierwszymi CISC (ang. Complex Instruction Set Computer), w których wykorzystano coś, co było typowe dla konkurencyjnych procesorów opartych na RISC (ang. Reduced Instruction Set Computer), a więc potoki. To sprawiło, że Pentium stał się pierwszym procesorem x86 (CISC), o którym można mówić, że korzystał z architektury superskalarnej. Po raz pierwszy „pecety” x86 otrzymały CPU, które mogły wykonywać obliczenia równoległe. Dzięki temu zaawansowane programy, ale także gry, mogły działać szybciej lub po prostu lepiej. Oczywiście, początkowo wykorzystanie dwóch potoków nie stało na najwyższym poziomie, ale programiści z czasem to opanowali. Pentium wprowadził komputery klasy „IBM PC” w erę multimediów, gdyż był układem, który w porównaniu z poprzednikami lepiej radził sobie z renderowaniem grafiki trójwymiarowej, dekodowaniem wideo oraz audio.
Mózg komputera już mamy, no to może czas na coś, nad czym miałby myśleć? 10 grudnia 1993 roku świat ujrzał grę Doom. Dziś jest to tytuł legendarny – i nie bez powodu. Doom był prawdziwą zagładą dla starego świata „IBM PC”, w którym pani Helenka wypełnia faktury, a Stasiek pracuje nad kolejnym z miliona dokumentów tekstowych. Gry dla „blaszanych pecetów” przed Doomem były dostępne, ale to właśnie ta wywołała największe zamieszanie, zapewniając świetnie wyglądającą grafikę 3D. Była ona co prawda zasługą ciężkiej pracy procesorów (CPU), ale tylko dlatego, że wtedy akceleratory grafiki 3D nie były jeszcze dostępne. To właśnie tej grze przypisałbym zasługę w pobudzeniu zapotrzebowania na sprzęt, który mógłby lepiej niż główny procesor renderować trójwymiarowy obraz. Na efekty nie trzeba było długo czekać. W grudniu 1994 roku firma Sony wprowadziła konsolę PlayStation, w której po raz pierwszy wykorzystano wyspecjalizowany akcelerator 3D. „Pecety” na swoją kolej musiały poczekać do 1995 roku, choć pierwsze przeznaczone dla nich produkty w większości były straszliwie słabe. Warto dodać, że Doom tak mocno zakodował się w powszechnej świadomości, że nawet Bill Gates, przy okazji promowania systemu Windows 95, wystąpił w materiale filmowym, w którym jego postać została osadzona w grafice z tej właśnie gry.
Gry to jednak nie wszystko, nad czym procesor komputera powinien myśleć. W 1993 roku pojawiło się jeszcze coś. To trzeci i ostatni element naszej układanki. Ostatni, ale najważniejszy. Dokładnie 23 stycznia Eric Bina oraz Marc Andressen udostępnili pierwszą wersję przeglądarki internetowej Mosaic. Był to pierwszy tego typu program komercyjny przeznaczony dla przeciętnego użytkownika komputera. To właśnie „Mozaice” należy przypisać popularyzację internetu w formie WWW (ang. World Wide Web).
Nie była to pierwsza przeglądarka, bo ten tytuł należy do programu o nazwie WorldWideWeb. Przy okazji warto wspomnieć, że napisano go dla systemu operacyjnego NeXTSTEP firmy NeXT Computer, którą w 1985 roku stworzył Steve Jobs. Marka NeXT nie była jednak jakoś specjalnie popularna, a komputery spod jej znaku sprzedawano przede wszystkim do sektora edukacji. Gdyby Jobs w tamtym czasie miał taki projekt przeglądarki internetowej w wersji dla urządzeń Apple, to kto wie, jak dziś wyglądałby rynek komputerów osobistych.
Mosaic nie była zatem pionierem, ale jej pierwsze wydanie było przeznaczone dla systemów opartych na Uniksie z działającym X (Window System). Ten grunt był o wiele stabilniejszy niż NeXTSTEP i dlatego rok później program pojawił się w wersji przeznaczonej na platformy Mac OS, Windows oraz AmigaOS. Graficzna strona internetu stała otworem dla każdego, kto miał do niego fizyczny dostęp. Pierwsze kroki w kierunku komercyjnego wykorzystania globalnej sieci były, oczywiście, niezdarne i czasami śmieszne, ale internet rozgrzewał się przed potężną eksplozją, która nastąpiła gdzieś w okolicach 1995 roku. Do tego czasu, przede wszystkim dzięki przeglądarce Mosaic, pierwsi internauci wydeptywali grunt dla zupełnie nowego świata.
Wykorzystanie siły rozpędu
Powiało świeżością, a wiatr zapowiadał spore zmiany. Z internetu wiało najsilniej, ale choć pierwsza przeglądarka była już dostępna, korzystanie z zasobów sieci nie było tak łatwe jak dziś. Powiedzmy, że chcemy poszukać informacji na temat historii Uniwersytetu Cambridge. Wpisujemy w wyszukiwarce, albo wręcz w pasku adresu przeglądarki internetowej, „Uniwersytet Cambridge historia” i otrzymujemy listę stron, na których możemy znaleźć coś, co nas interesuje. Wyszukiwarka proponuje nam adresy, których przecież nie jesteśmy w stanie ot tak się domyślić. W latach 90. ubiegłego wieku sprawy nie były takie proste. Gdy pojawił się Mosaic, nie było jeszcze Google, ani nawet Yahoo!.
Na poważne zmiany trzeba było poczekać do 1994 roku. Dokładnie 20 kwietnia uruchomiono wyszukiwarkę internetową WebCrawler, która jako pierwsza w historii, analizując treść odnalezionych stron, potrafiła dopasowywać wyniki wprost do zapytań. Wcześniej trzeba było polegać na tzw. katalogach stron, a więc zbiorach tytułów i adresów, często podzielonych na kategorie i podkategorie. Można było zaklikać się na śmierć, a ostatecznie i tak nie trafić na to, czego się oczekiwało. Co prawda, zanim pojawił się WebCrawler, istniały witryny, które same wyszukiwały i indeksowały strony internetowe (takie jak JumpStation, uruchomiona w grudniu 1993 roku), ale ograniczały się do zapisywania tytułów i nagłówków. WebCrawler natomiast szukał słów kluczowych w treści i dzięki temu mógł pozycjonować strony w swoich wynikach.
Wyszukiwarki internetowe, których wysyp rozpoczął się na przełomie lat 1993 i 1994, przyciągnęły do globalnej sieci mnóstwo ludzi, którzy dostrzegli w tym medium źródło dochodów. Jak grzyby po deszczu zaczęły wyrastać pierwsze portale i wortale. Dzięki wyszukiwarkom każdy miał poczucie, że to właśnie jego stronę łatwo będzie można odnaleźć. Portale, ze względu na zróżnicowaną treść, z reguły miały pierwszeństwo we wczesnych wyszukiwarkach indeksujących więcej niż tylko tytuł i nagłówek.
W 1994 roku pojawił się nowy element przyspieszający rozwój internetu: przeglądarka internetowa Netscape Navigator. Nie był to jednak nowy produkt. „Szkapa” była tak naprawdę Mosaikiem, tylko pod nową nazwą, którą nadano jej w wyniku pewnych zawirowań biznesowych. Została świetnie wypromowana i błyskawicznie stała się najpopularniejszym narzędziem tego typu. Przez parę lat nawet Microsoft ze swoim Internet Explorerem (też zresztą opartym na kodzie Mosaic) nie umiał się przebić. W ciągu niewiele ponad roku Netscape Navigator zdobył udział w rynku na poziomie niemal 80 procent! Stale rosnąca popularność systemów operacyjnych Windows, a także dołączanie do nich kolejnych wersji Internet Explorera były główną przyczyną tego, że „Szkapa” pod koniec lat 90. gwałtownie zaczęła tracić popularność. Program ten jednak dla bardzo wielu użytkowników komputerów był pierwszą przeglądarką.
W 1995 roku Microsoft wprowadził na rynek Windows 95. To był najbardziej ambitny projekt konsumenckiego systemu tej firmy. Przede wszystkim całkowicie zmienił się sposób interakcji z komputerem. Pojawiło się coś, co moim zdaniem mocno nawiązywało do wtedy wciąż uznawanych za nowość wyszukiwarek. Mam tu na myśli menu Start, które stało się punktem centralnym Windows, punktem, od którego należało po prostu zacząć pracę. Dokładnie taki sam cel mają wyszukiwarki: to od nich mieliśmy zaczynać podróże po wirtualnym świecie. Windows 95 szybko stał się rynkowym hitem, a w sklepach ustawiały się po niego kolejki, nieraz bardzo długie. W branży komputerowej panował wielki entuzjazm, bo wielu dostrzegało potrzebę dostosowania oprogramowania (przede wszystkim systemów operacyjnych) do wymagań internetu.
Wraz z kolejnymi wydaniami Windows Microsoft wprowadzał w nich coraz to nowsze rozwiązania, które miały je zbliżać do sieci. Internet w latach 1995–1997 wyglądał skromnie i nie rozwijał się szczególnie gwałtownie. Oczywiście, witryn, serwerów FTP itd. przybywało, ale wciąż dominował tekst oraz statyczne obrazki.
Multimedia albo nic
Aby internet nabrał wigoru, trzeba było najpierw ruszyć coś po stronie sprzętowej. W 1996 roku Intel powiększył ofertę procesorów o serię Pentium MMX. Te układy przyniosły 47 nowych instrukcji SIMD, dzięki którym możliwe było zwiększenie wydajności w przetwarzaniu materiałów wideo oraz dźwięku. W tym samym roku Microsoft udostępnił pakiet DirectX 2.0, w którym pojawił się interfejs programowania Direct3D. Zaprezentowano też grę MechWarrior 2 w wersji dla Windows 95, w którą po raz pierwszy można było grać z innymi przez internet.
Mniej więcej w tym samym czasie na rynek zaczęły trafiać pierwsze karty graficzne wyposażone w akceleratory grafiki 3D, na przykład Matrox Mystique, S3 ViRGE oraz ATI 3D Rage. Pierwsze próby sprzętowej akceleracji grafiki trójwymiarowej w większości okazały się niewypałami. Największym z pewnością były układy S3 ViRGE: czasami nazywano je deceleratorami 3D, gdyż lepsze wyniki można było osiągnąć, korzystając z mocy samego CPU.
W 1996 roku narodziła się legenda: seria produktów o nazwie Voodoo. Czary mary? Nie! Na rynek z ogromnym impetem wtargnęła firma 3dfx Interactive. Zamiast sprzedawać karty graficzne „2D” z układami, które miałyby wbudowane kiepskie akceleratory 3D, postanowiła zaatakować kartą przeznaczoną tylko do jednego: renderowania grafiki 3D. Bez szczególnych kompromisów, bez dodatkowych kosztów. Karty 3dfx Voodoo szybko zdobyły serca graczy i dla wielu były obiektami westchnień. W połączeniu z procesorami Pentium MMX i pod kontrolą systemu Windows 95 okazały się właśnie tym, na co czekali gracze, którzy nie byli zainteresowani konsolami. Do walki o rynek przystępowały – przyczyniając się zarazem do przyspieszenia rozwoju branży gier 3D – kolejne firmy, takie jak: Trident, Imagination Technologies (PowerVR), Nvidia i Rendition.
15 września 1997 roku została uruchomiona nowa wyszukiwarka internetowa, która szybko zdominowała rynek i do dziś pozostaje liderem w rankingach popularności. Mowa oczywiście o Google Search. Wtedy była to tylko wyszukiwarka; dopiero znacznie później zaczęto do niej dokładać kolejne elementy, a więc nowe usługi sieciowe.
W lutym 1998 roku Netscape Communications Corporation stworzyła projekt Mozilla. Jego celem pierwotnie była praca nad zmianami w przeglądarce Netscape Navigator, która wtedy traciła już popularność na rzecz Internet Explorera. Ostatecznie jednak projekt Mozilla całkowicie oderwał się od firmy matki i w 2003 roku powstała Fundacja Mozilla, która rok później wprowadziła pierwszą wersję swojej przeglądarki opartej na otwartym kodzie. Ten program dziś znamy pod nazwą Firefox.
W kwietniu 1997 roku nastąpiło wydarzenie, którego nie można pominąć, a więc na chwilę cofniemy się trochę w czasie. To właśnie wtedy światło dzienne ujrzała pierwsza, bardzo skromnie wyglądająca wersja odtwarzacza muzycznego, który przypieczętował śmierć kaset magnetofonowych i sprawił, że także płyty kompaktowe jako nośniki muzyki po raz pierwszy stanęły przed poważnym zagrożeniem: Winamp 0.2a, czyli odtwarzacz bez okna. Narzędzie miało pasek menu i nic więcej. Odtwarzało pliki w formacie MP3 – i tyle. Nie można było nawet przeskakiwać do wybranej pozycji utworu, tylko „start”, „stop” i „pauza”. Za tą prostotą kryło się jednak coś więcej, a chodzi oczywiście o format MP3, który po raz pierwszy pojawił się znacznie wcześniej, bo już w 1991 roku. Jego drugie wcielenie (MPEG-2 Audio Layer III) ustandaryzowano cztery lata później i dopiero w 1997 roku udostępniono pierwszy program, który wywołał bardzo gwałtowny wzrost popularności plików MP3 i szybko stał się synonimem odtwarzacza muzyki.
W zasadzie dopiero w 1998 roku komputer osobisty przeszedł pierwszą dużą zmianę wizerunkową. Firma Apple wprowadziła na rynek modele iMac. Wyglądem nie przypominały one żadnego z wcześniej dostępnych komputerów. Zupełnie nowy, wtedy bardzo odważny wygląd przyciągał uwagę. iMac był pierwszym urządzeniem typu All-in-One, które osiągnęło wielki sukces. Rok później oferta Apple powiększyła się o przenośne iBooki. Były to pierwsze masowo produkowane laptopy, które wyglądały inaczej niż cała reszta – kanciasta i po prostu smutna. Druga generacja iBooków co prawda utraciła opływowy kształt przypominający muszlę, ale zachowała jasną barwę, a i wszystkie rogi były ładnie zaokrąglone. Ponieważ Microsoft w latach 1999–2001 przygotowywał się do przeniesienia „poważnej” (biznesowej i profesjonalnej) platformy NT do typowo konsumenckich systemów operacyjnych, Apple chciało mieć gotową odpowiedź. Dlatego komputery iMac i iBook musiały trochę „spoważnieć".
W drugiej połowie lat 90. gdzieś na uboczu pomału zaczął się rozwijać rynek smartfonów. Pierwsze urządzenia były dość prymitywne i tylko nieliczne modele, na przykład Nokia 9000 Communicator, osiągały jakieś sukcesy. Powstało dla nich kilka systemów operacyjnych, takich jak: Symbian, BlackBerry, Windows Mobile i Palm OS. Nie były to jednak popularne urządzenia, nie udawało im się wyjść z niszy przez wiele lat.
Ten sam los dzieliły tablety, które jeszcze 10 lat temu najczęściej sprzedawano w formie laptopów typu convertible, a więc z reguły małych komputerów przenośnych z obracanymi ekranami dotykowymi. Obsługiwało się je za pomocą rysików, a największym problemem było to, że aż do pojawienia się iPada firmy Apple nikt nie wpadł na to, że tablet, choćby ładny i wydajny, na niewiele się zda, jeśli nie będzie dla niego odpowiedniego systemu operacyjnego, a w efekcie – także oprogramowania. Na dotykową rewolucję, zarówno w smartfonach, jak i tabletach, było więc jeszcze za wcześnie.
Pierwsza dekada XXI wieku w internecie to przede wszystkim nowe źródła dochodów. Pomału rozwija się handel za pośrednictwem sieci, w tym serwisy aukcyjne. W szybkim tempie przybywa natomiast blogów; na początku były tworami indywidualnymi, ale z czasem powstały serwisy oferujące możliwość założenia bloga z gotowymi szablonami. Fenomen blogów został zauważony już pod koniec ubiegłego wieku, kiedy to zaczęły ujawniać się pierwsze elementy przyszłych witryn społecznościowych. Początkowo tego typu usługi opierały się na wymianie samych danych o użytkownikach, ale później zaczęły się rozbudowywać. Jednym z pierwszych serwisów społecznościowych w formie znanej nam do dziś był uruchomiony w 2002 roku Friendster. Dzięki niemu można się było kontaktować z innymi użytkownikami, zarządzać kontaktami, a także dzielić się różnymi treściami internetowymi oraz udostępniać zdjęcia i filmy.
23 października 2001 roku dokończono to, co cztery lata wcześniej rozpoczęto wraz z udostępnieniem pierwszej wersji odtwarzacza WinAMP. Tego dnia firma Apple oficjalnie zaprezentowała odtwarzacz iPod. Po raz pierwszy w tak małym urządzeniu mieliśmy do dyspozycji aż 5 GB przestrzeni na swoje pliki. iPod nie tylko wyznaczył drogę rozwoju rynku przenośnych odtwarzaczy muzycznych, ale także całkowicie zmienił system dystrybucji muzyki: przeniósł ją z płyt kompaktowych, po które trzeba było chodzić do sklepu, na grunt internetu. iTunes, sklep z utworami muzycznymi, okazał się strzałem w dziesiątkę: konsumenci po prostu go pokochali. Koniec z wychodzeniem z domu i noszeniem ze sobą dużego odtwarzacza CD oraz kilku płyt! Teraz co najmniej kilkaset utworów można było mieć w jednym małym iPodzie. Wystarczyło kilka kliknięć – i utwór lub cały album muzyczny był nasz.
25 października 2001 roku Microsoft oficjalnie wprowadził na rynek system operacyjny Windows XP. To był kolejny, po Windows 95, odważny projekt, pierwszy konsumencki Windows oparty na jądrze NT, które wcześniej było podstawą systemów przeznaczonych do zastosowań profesjonalnych. Pierwszym podejściem był Windows 2000, który trafił do sprzedaży dwa lata przed XP. Był to system „NT”, w którym pojawiła się między innymi obsługa interfejsu programowania DirectX (obok wcześniej obsługiwanego OpenGL), a także nowoczesny, wzorowany na wyglądzie stron internetowych interfejs użytkownika. Ten system jednak, pomimo „multimedialnych elementów”, nie był rozwiązaniem dla przeciętnego użytkownika. Był nim natomiast Windows XP.
„Ikspek” zainteresowanie wzbudził przede wszystkim interfejsem Luna, w którego skład wchodziło odmienione, unowocześnione menu Start. Microsoft zdawał sobie sprawę z tego, że kwestie związane z internetem są bardzo ważne, i dlatego się starał, aby w XP korzystanie z zasobów sieci było możliwie łatwe. W systemie zintegrowano komunikator Windows Messenger, wprowadzono nowe narzędzia i kreatory ułatwiające konfigurowanie połączeń sieciowych. Pojawił się też między innymi Internet Explorer 6. Ta przeglądarka miała być gwoździem programu, ale szybko się okazało, że miała raczej zadatki na gwóźdź do trumny. Tu Microsoft popełnił poważny błąd, gdyż Internet Explorer 6, pomimo sporych zmian względem poprzedniej wersji, pod wieloma względami pozostawał w tyle za konkurencją. To wydanie sprawiało też mnóstwo problemów, jeśli chodzi o stabilność, bezpieczeństwo czy wreszcie zgodność ze standardami.
W latach 2002–2003 śmielej na rynku swoją obecność zaczęły zaznaczać nowe formaty obudów komputerowych. Nowe konstrukcje były znacznie mniejsze i najczęściej wyglądały jak duże kostki. Format SFF (ang. Small-form Factor) dla płyt głównych microATX nie zyskał jednak powszechnego uznania. Nowoczesny wygląd i niewielkie rozmiary skutecznie zostały przysłonione przez bardzo wysokie ceny. Małe płyty też z reguły były zauważalnie droższe od większych sióstr spod znaku ATX. W tamtym czasie na marginesie pozostawały smartfony i tablety, małe obudowy komputerowe również się nie przyjęły. Wydawało się, że dążymy do zwiększania możliwości urządzeń elektronicznych i ciągłej miniaturyzacji, bez przerwy jednak pojawiały się jakieś przeszkody.
W pierwszej połowie ubiegłej dekady coraz częściej można było się spotkać ze skrótem HDTV. Pojawiał się na coraz to nowych urządzeniach: kartach graficznych, płytach głównych, telewizorach, odtwarzaczach DVD. Na rynek trafiały nowoczesne telewizory z ekranami LCD. Oczywiście, były piekielnie drogie, ale i tak przyciągały do sklepów, choćby miało skończyć się na oglądaniu. Telewizory kineskopowe były w pospiesznym odwrocie, bo zastępowały je nowoczesne konstrukcje, mające zapewniać lepszej jakości obraz, przede wszystkim dzięki większej liczbie pikseli. Mimo że materiałów wideo w rozdzielczości HD było jeszcze jak na lekarstwo, to wielu konsumentów już na zapas przygotowywało się na nadejście „ery HD". Dopiero w 2006 roku zaczęły się pojawiać pierwsze odtwarzacze płyt typu blu-ray i HD DVD, a także pierwsze filmy w rozdzielczości HD.
Internet na „erę HD” przygotowywał się już wcześniej. W 2005 roku uruchomiono serwis YouTube, który błyskawicznie stał się jednym z najpopularniejszych na świecie. Szybko rosnąca baza przeróżnych filmów przyciągała internautów. Każdy chciał, chociażby z ciekawości, coś obejrzeć. Ważne w tym wszystkim było to, że ową bazę tworzyli sami internauci. YouTube stał się medium dla anonimowych ludzi, wśród których wielu chciało się pokazać całemu światu. Fenomen YouTube'a szybko dostrzegła firma Google, która przejęła go niecałe dwa lata później.
W 2004 roku wybuchła inna, bardzo silna bomba internetowa. Otóż 4 lutego Mark Zuckerberg uruchomił swój własny serwis społecznościowy, Facebook, który szybko zagroził pozycjom wszelkiej ówczesnej konkurencji. Być może połowa poprzedniej dekady miała w sobie coś, co sprawiało, że właśnie wtedy powstały dwa gigantyczne projekty internetowe, które miały za zadanie ułatwiać komunikację między ludźmi, a także zapewnić im środek masowego przekazu – najpierw Facebook, a potem YouTube. Wielu internautów nagle zaczęło dzielić się sobą z całym światem. Jeszcze pod koniec ubiegłego wieku starsze pokolenia obawiały się, że młodzież za sprawą internetu stanie się zamknięta w sobie, gdyż sieć sprawi, że zanikną bezpośrednie kontakty międzyludzkie, zastąpione przez internetowe komunikatory, fora dyskusyjne, czaty itd., a w końcu wszyscy pochowają się w swoich domach i będą anonimowymi bytami wirtualnymi. Rzeczywistość okazała się zgoła niepodobna.
Pomimo pojawienia się Facebooka i innych serwisów społecznościowych, takich jak – również popularny – MySpace, nowych komunikatorów internetowych (w Polsce Gadu-Gadu, Tlen.pl, WPKontakt itp., na świecie chociażby Skype), gier sieciowych i wielu innych rozwiązań ułatwiających pośrednią komunikację ludzie wciąż spotykali się ze sobą i nic nie wskazywało na to, aby nasze nawyki miały się zmienić. Oczywiście, dało się zauważyć nowe, na przykład rolę kartek pocztowych przejęły SMS-y. „Wszystkiego najlepszego, zdrowia, szczęścia, góry pieniędzy i innych takich!” niechętnie pisaliśmy długopisami, coraz częściej służył do tego znacznie wygodniejszy, jak się okazało, telefon komórkowy.
Co to jest komputer?
W 2007 roku wybuchła następna bomba. Tym razem był to rezultat połączenia paru składników wysokoenergetycznych: sprzętu, oprogramowania i usług. Jednym naciśnięciem guzika odpalono potężny ładunek, który wysadził w powietrze grubo ponad 10 lat rozwoju pewnego rynku. Oczywiście, chodzi o smartfony i wprowadzone 29 lipca 2007 roku urządzenie o nazwie Apple iPhone. Smartfon narodził się na nowo. Tego typu „komunikatory GSM” były dostępne już od 1991 roku, ale pomimo upływu lat i usilnych starań licznych producentów sprzętu oraz twórców systemów operacyjnych nikt nie zdołał stworzyć smartfona, który byłby po prostu dla wszystkich. iPhone był pierwszym, o którym naprawdę można było powiedzieć, że jest uniwersalny. Steve Jobs w trakcie oficjalnej prezentacji z nieskrywaną radością pożegnał te wszystkie zestawy różnych przycisków, które wyłącznie „chroniły” każde z urządzeń tego typu przed rozwojem przeznaczonego dla niego oprogramowania.
Wcześniej nie było sklepów z oprogramowaniem. Narzędzia i gry najczęściej były z góry narzucone. Rzecz jasna, można było w niektórych przypadkach instalować nowe, ale i tak były ograniczone przez te przeklęte przyciski. Programiści zawsze musieli się dostosowywać do ich układu. Nierzadko problemem było to, że różne modele smartfonów, nawet w ramach oferty jednego producenta, miały różne układy przycisków, co tylko wszystko komplikowało. iPhone zaś to duży ekran. Ekran dotykowy. Bez ograniczeń co do interfejsu użytkownika: każdy program może mieć dosłownie taki, jaki wymyśli sobie jego twórca. No i na to czekaliśmy. Na to czekali też spragnieni zysków programiści, także ci jak najbardziej indywidualni, którzy wraz z iPhone'em dostali szansę wykazania się na popularnej platformie.
Na pojawienie się smartfona Apple zareagowała firma Google, wprowadzając system Android, którego pierwsza wersja pojawiła się 23 września 2008 roku. Zaczęła się prawdziwa wojna o ten nowy, bardzo przyszłościowy rynek. Android i oparte na nim smartfony zapewniły użytkownikom i programistom to, co wcześniej dał im iPhone: pełną swobodę i duże możliwości, które mieszczą się w dłoni. To tylko przyspieszyło rozwój infrastruktury sieci komórkowych, które szybko trzeba było przygotowywać na wzrost ruchu internetowego. Smartfony pozwoliły przeglądać strony WWW z dowolnego miejsca w zasięgu nadajnika. Dostępne są dla nich narzędzia ułatwiające korzystanie z serwisów społecznościowych, takich jak Facebook i Google+. YouTube w smartfonie to też już żadne zaskoczenie. Na bieżąco możemy być ze swoją pocztą elektroniczną. No i oczywiście dzwonić, choć jak już niektórzy zauważają, to chyba staje się jakby coraz mniej istotną cechą tego sprzętu...
Także w 2007 roku pojawiła się nowa kategoria komputera przenośnego: netbook. Wprowadzenie modelu Asus Eee PC 700 otworzyło nowy rynek, który rozrastał się w bardzo szybkim tempie. Już w następnym roku małe netbooki zaczęły negatywnie wpływać na sprzedaż ich większych braci, laptopów. Mały komputer, mało wydajny, niezbyt drogi – to główne cechy netbooka. Ten typ odegrał bardzo ważną rolę w świecie elektroniki użytkowej. Dzięki niemu okazało się, że przeciętny konsument jednak z ochotą kupiłby jakiś prosty komputer, który służyłby mu do wykonywania prostych zadań. Ma być lekki, niewielki i w miarę tani. Z upływem czasu zaczęły się pojawiać konstrukcje, które nadawały się do czegoś więcej niż tylko przeglądania stron internetowych czy korzystania z poczty elektronicznej. Dzięki kolejnym generacjom procesorów Intel Atom, a także układom grafiki Nvidia ION netbooki zaczęły płynnie odtwarzać filmy w wysokich rozdzielczościach, a nawet dało się na nich pograć. Wkrótce jednak do sklepów trafił rywal nie do pokonania.
27 stycznia 2010 roku odpalono kolejną bombę. Znowu Apple i znowu Steve Jobs. Tego dnia po raz pierwszy pokazano nowoczesny tablet. Był to iPad, czyli komputer przenośny z ekranem dotykowym i bez klawiatury. Na pierwszy rzut oka – powiększony smartfon iPhone. Jednak dzięki większym gabarytom i znacznie większym ekranom tablety mogą mieć bardziej wyśrubowane parametry. Większa wydajność, więcej pamięci (RAM i flash), bardziej pojemny akumulator dają im przewagę nad smartfonami. Mają też służyć do innych celów. Tablet z zasady nie jest urządzeniem do rozmów telefonicznych, choć zdarzają się modele, które to umożliwiają. iPad bezpośrednio uderzył w netbooki i niedługo po tym, jak trafił na rynek, przyłączyły się konkurencyjne konstrukcje, oparte na systemie operacyjnym Google Android, który został (w wersji Honeycomb) przystosowany do działania w urządzeniach o większym ekranie i wyższej rozdzielczości. Ofiarą tabletów padły właśnie netbooki, z których produkcji po 2010 roku wycofywały się kolejne firmy. Dziś tablety zagrażają już nawet laptopom. Ostatnie dane firm analitycznych pokazują, że rozwój rynku typowych komputerów przenośnych ostro wyhamował, a powodem ma być rosnące zapotrzebowanie na tablety. Wygląda więc na to, że najpierw za sprawą smartfonów chętnie pożegnaliśmy się z fizycznymi klawiaturami, a dziś ich obecność jest coraz mniej istotna także w przypadku „komputerów osobistych”. Widać to właśnie na przykładzie wzrostu rynku tabletów.
Smartfony i tablety początkowo uznawane były za zwykłe zabawki, bezwartościowe gadżety, na których można postrzelać ptakami do świnek albo poszatkować owoce. Okazały się jednak świetnym połączeniem paru różnych elementów, takich jak telefon, dostęp do internetu, odtwarzacze wideo i audio, dostęp do sklepu z muzyką, funkcje komunikacji elektronicznej, czytnik książek i wreszcie... komputer. Oba rodzaje urządzeń moim zdaniem są komputerami. Nie należy nazywać komputerem tylko tego, na czym można uruchomić „pełnokrwistego” Excela lub Photoshopa. W ostatnich latach wyłączność na to miano tracą wielkie blaszane pudła oraz ich przenośne odpowiedniki, laptopy.
Weźmy na przykład tzw. Smart TV. Telewizor może mieć system operacyjny, chociażby Androida. Co go różni od komputera, który zamknięty w dużej obudowie stoi pod biurkiem? Albo od laptopa? Skoro mamy dostęp do internetu i możemy przeglądać jego zasoby, instalować programy i gry, korzystać z klawiatury lub myszki (np. bezprzewodowej), odczytywać dane z nośników (np. pendrive'a lub karty pamięci) i przenosić je, to chyba mamy do czynienia z komputerem osobistym? Tyle że wbudowanym w telewizor.
Życzymy miłej podróży
Moim zdaniem przed nami rysuje się bardzo ciekawa przyszłość. Wszystko krąży wokół internetu i to on nadaje wszystkiemu charakter. Wykorzystywany jest już nawet w lodówkach, co jeszcze 10 lat temu było wyśmiewanym pomysłem. Problem z przewidywaniem przyszłości tkwi w firmie Microsoft, która z dużym opóźnieniem weszła na rynek tabletów. Jeśli chodzi o smartfony, jej starania o zwiększenie popularności Windows Phone na razie dają mizerne rezultaty. Windows 8 i Windows RT mocno zamieszały w tej gorącej tabletowej zupie. Większym problemem jest Windows 8, gdyż jest on systemem przede wszystkim stosowanym w komputerach stacjonarnych i laptopach. Elementem przystosowującym go do środowiska ekranów dotykowych jest wyłącznie interfejs Metro, a raczej ekran Start.
To tak, jakby dwa zupełnie inne światy próbowały stać się jednością. Ekran Start i pulpit w systemie Windows 8 są jak wzajemnie zwalczające się byty. Nie ma między nimi żadnej poważnej z punktu widzenia użytkownika integracji. Internet Explorer 10 z ekranu Start w ogóle nie współgra z Internet Explorerem 10 z pulpitu. Moim zdaniem Microsoft musi się na coś zdecydować, bo przez ekran Start na parę lat możemy utkwić w martwym punkcie i będziemy się kręcić wokół dyskusji o tym, czy „okienkowy pecet” wciąż jest „pulpitowy” czy może już „kafelkowy". Interfejs „dotykowy” nowych Windows uważam za najgorszy ze wszystkich obecnie dostępnych. Dlaczego? Nie dlatego, że nie działa lub jest brzydki. Przede wszystkim dlatego, że nie widzę w nim żadnej, nawet najmniejszej innowacji. Tak zwane żywe kafelki? A od czego w innych systemach są gadżety? Taki „żywy gadżet” jest z reguły skrótem do aplikacji. Dlaczego akurat po nim miałbym spodziewać się innowacji? A może dlatego, że jako jedyny jest stosowany w systemie, który ma być instalowany na komputerach stacjonarnych i laptopach, a tych nie trzyma się w dłoni i nie obsługuje palcem bądź palcami drugiej?
Poważny problem ma też firma Google, której Android raczej nie nadaje się do komputera stacjonarnego albo przenośnego. Przewaga Microsoftu może polegać na tym, że jedna firma chce mieć platformę programową dla wszystkich popularnych typów komputerów osobistych – od smartfonów aż po biurkowce, przy okazji dorzucając konsolę do gier. Google rozwija się na rynku tabletów i smartfonów, ale Windows 8 i Windows RT, a raczej wizja Microsoftu, wcale nie są skazane na całkowitą porażkę. W tym roku może się pojawić pierwsza duża aktualizacja Ósemki i kto wie, co gigant z Redmond w niej zmieni. Jeżeli chce osiągnąć na rynku tabletów sukces, to właśnie teraz, już na starcie, musi dokładnie wsłuchiwać się w głosy konsumentów i jakoś starać się znajdować najlepsze rozwiązania, w najgorszym razie kompromisy. Google ma dziś bardzo silną pozycję, ale ja bym nie dał sobie głowy uciąć, że Android za 5 lat wciąż będzie numerem jeden. Rynek komputerów stacjonarnych będzie się szybko kurczyć, a laptopy swoje najlepsze lata też już chyba mają za sobą. Nie oznacza to jednak, że te odmiany komputerów osobistych zostaną niebawem zapomniane. To właśnie pozwala Microsoftowi utrzymać co najmniej względną równowagę, bo Google nie ma dla ich użytkowników praktycznie nic, nie licząc, oczywiście, systemu Chrome OS, który bez przeglądarki internetowej praktycznie do niczego by się nie nadawał.
Apple? Steve Jobs był dla tej firmy mocnym napędem, był jej wizytówką. Wracając do niej w 1997 roku, postawił ją na nogi, a był to nie lada wyczyn, gdyż jej stan był opłakany. Za jego rządów wprowadziła na rynek cztery mniej lub bardziej rewolucyjne produkty: iMaca, iPoda, iPhone'a i iPada. Polityka firmy najprawdopodobniej się zmieni. Widać to było chociażby w momencie zaprezentowania iPada Mini. Spodziewałem się tego produktu, ale jednak dopiero wtedy, gdy usłyszałem, że właśnie jest oficjalnie zapowiadany, wiedziałem, że to koniec dobrej passy marki. Steve Jobs zmienił ją, wprowadzając bardzo istotne restrykcje co do oferty. Miała być prosta, wręcz najprostsza, jak tylko się da. Każdego roku dostawaliśmy nową generację smartfona iPhone, podobnie było z iPadami. Aż do ubiegłego roku, gdy obok iPada czwartej generacji pojawił się jakiś mikrus – iPad Mini. Zdaję sobie sprawę z tego, że Apple dzięki temu produktowi chce walczyć o rynek najmniejszych tabletów, ale to już nie jest najprostsza oferta dla klienta, który teraz, wchodząc do Apple Store, musi się zastanawiać, czy 10 cali to za dużo, czy może 8 cali to za mało. Na szczęście iPhone 5 nie ma braciszka iPhone Mini, ale... może iPhone 6 będzie go miał? Skoro Apple przez parę lat wmawiało nam, że 9,7 cala w tablecie to wartość optymalna, będąca rezultatem lat badań, to niech nam dzisiaj nie wmawia, że 7,9 cala to też wartość optymalna.
Od dawna ludzkość snuje marzenia o „inteligentnym” domu. Ciekaw jestem, kto pierwszy dobrze ją (wreszcie) zrealizuje i spopularyzuje. Telefon, komputer na biurku (np. przenośny), tablet lub podobna konstrukcja, telewizor, oświetlenie, ogrzewanie i ewentualnie klimatyzacja, ekspres do kawy, lodówka, kuchenka i jeszcze parę innych elementów – wszystko działające pod kontrolą tego samego systemu operacyjnego, wszystko ze sobą współpracujące, komunikujące się i sterowane z poziomu czegoś w rodzaju urządzeń nadrzędnych, na przykład laptopa, smartfona lub tabletu. Tak aby pojęcie „komputer osobisty” mogło odejść w zapomnienie. Tak aby dom stał się komputerem, a poszczególne urządzenia elektroniczne były czymś w rodzaju jego podzespołów. Dorzućmy do tego jakiś pojazd, na razie niech to będzie samochód, i mamy komplet. Podstawą jest też łatwość komunikacji ze światem zewnętrznym. Wcale nie musi od początku chodzić o serwisy społecznościowe, niech to będą przynajmniej środki komunikacji wideo lub głosowej. Jeżeli dzwoni telefon, a znajduje się on poza zasięgiem słuchu, to dlaczego komputer przenośny lub tablet nie miałby umożliwić odebrania takiego połączenia? Z siecią łączy się telefon, ale my rozmawiamy poprzez inne urządzenie, wyposażone w mikrofon i głośniki lub pozwalające podłączyć zestaw słuchawkowy. Noszenie przy uchu słuchawki Bluetooth mogłoby być jakimś rozwiązaniem, lecz wciąż pozostaje problem zasięgu. Ponadto komu chciałoby się ją nosić cały czas?
Ale być może ostatecznie powrócimy do idei domowego serwera, który wszystkim by zarządzał. Efekt mógłby jednak być taki sam jak we wcześniej omówionym przypadku. Może właśnie taka myśl sprawia, że nie umiemy pożegnać się z wielkimi blaszanymi pudłami?
Przez ostatnich 20 lat nic nas tak nie zmieniło jak powszechny dostęp do internetu. Sieć wciąga nas coraz bardziej, a my coraz bardziej chcemy dać się wciągnąć. Z każdym kolejnym rokiem życie bez internetu w rozwiniętych krajach staje się coraz trudniejsze. Czerpiemy z niego informacje, zarabiamy za jego pomocą, nawet jeśli tylko pośrednio. Wyobraźcie sobie, co by się stało, gdyby istniała jedna wtyczka zasilająca internet i ktoś by ją... wyciągnął? Chyba coś w rodzaju końca świata. Ktoś by nam zabrał telewizję? Nie ma problemu – jest internet! Ktoś by nam zabrał wszystkie odtwarzacze muzyczne? Nie ma problemu – jest internet! Ktoś by wyłączył wszystkie stacje radiowe? Jest internet! Zniknęłyby wszystkie papierowe gazety? Internet! Internet umiemy „konsumować” na wiele sposobów: poprzez komputer stacjonarny, laptop, netbook, smartfon, tablet, telewizor, odtwarzacz multimedialny... A to tylko najważniejsze przykłady. Nie oszukujmy się, producenci wielu typów urządzeń elektronicznych, przede wszystkim komputerów, wcale nie dostosowują ich do naszych (konsumentów) potrzeb. Dostosowują je do możliwości, jakie daje internet. My mamy kupować i się uczyć, jak z nich korzystać.