To wcale nie jest prawo
Słowo „prawo” w technice i nauce oznacza ścisłą zasadę, która wynika z natury wszechświata i jest niezależna od naszych działań lub obserwacji. Prawo Moore'a to pewna zaobserwowana prawidłowość, która do tej pory była prawdziwa (a raczej na tyle bliska rzeczywistości, że rozbieżności można zbagatelizować i złożyć na karb interpretacji). Ta prawidłowość mówi:
Liczba elementów w układzie scalonym będzie się podwajać co roku.
Gordon Moore zmienił później zdanie i powiedział, że podwojenie nie będzie następowało co roku, ale co dwa lata. Mniej wiarygodne źródła podają błędnie, że chodzi o 18 miesięcy. Ale szczegóły nie są istotne – ważne są podstawy i skutki (nie)prawa Moore'a.
Trochę historii
W 1958 i 1959 roku inżynierowie Jack Kilby z Texas Instruments oraz Robert Noyce z Fairchild Semiconductor, pracując niezależnie od siebie, ale opierając się na starszych o dekadę pomysłach i opracowaniach, wynaleźli układ scalony. Wcześniej urządzenia elektroniczne składały się z pojedynczych elementów, umieszczonych w oddzielnych obudowach i połączonych na płycie drukowanej. W układzie scalonym wiele elementów jest zintegrowanych w jednym kawałku półprzewodnika. Układy scalone wzbudziły zainteresowanie ze względu na swoje małe rozmiary. W 1961 roku w TI zbudowano demonstracyjny komputer z układami scalonymi, wielokrotnie mniejszy i bardziej energooszczędny od ekwiwalentu złożonego z oddzielnych elementów. Jednym z pierwszych nabywców była armia amerykańska: w 1961 zaczęła stosować układy scalone w przyrządach naziemnych, a w 1962 – w komputerach sterujących pociskami balistycznymi Minuteman.
W 1965 roku najbardziej złożonymi układami scalonymi były bramki logiczne i wzmacniacze operacyjne, zawierające do kilkunastu tranzystorów. Najlepszy op-amp tamtych czasów miał dziewięć tranzystorów i kosztował około 300 dol. – ponad 2000 dzisiejszych! W kwietniu 1965 czasopismo Electronics, obchodzące 35. rocznicę istnienia, poprosiło Gordona Moore'a o napisanie artykułu przewidującego trendy w elektronice na następne 10 lat. Moore był chemikiem zajmującym się litografią oraz szefem działu badań i rozwoju w Fairchild Semiconductor. Jego firma przodowała w produkcji scalaków, ale nie wszyscy w tym biznesie zdążyli się już zorientować, jak ważny to wynalazek. Moore postanowił zwrócić na to uwagę i zauważył, że w krótkim czasie istnienia układów scalonych liczba zintegrowanych komponentów podwajała się co roku.
Niedługo po słynnym artykule zaczęto produkcję wzmacniacza operacyjnego μA709, pierwszego układu scalonego, który można było kupić za kilka dolarów i który był powszechnie dostępny i wykorzystywany. W latach 1969–1970 powstały pierwsze mikroprocesory, wśród nich Intel 4004 (2300 tranzystorów wykonanych w procesie technologicznym 10 000 nm). Kolejne wynalazki w dziedzinie litografii pozwoliły z czasem dalej zmniejszać elementy układów scalonych i produkować je na coraz większą skalę. W 1975 roku Gordon Moore pracował już w Intelu, wtedy zajmującym się głównie wytwarzaniem pamięci operacyjnej (RAM). W publikacji organizacji IEEE napisał, że liczba komponentów w układzie scalonym będzie się podwajać nie co roku, ale co dwa lata. Zauważył też, że to nadal bardzo szybkie zmiany i że z upływem lat elektronika będzie zajmować coraz ważniejsze miejsce w społeczeństwach.
Obie prognozy Moore'a, ta z 1965 roku i ta z 1975, sięgały 10 lat do przodu. Moore już nigdy nie pokusił się o podobne przewidywania, być może dlatego, że w 1985 roku zajmował już w Intelu pozycję administracyjną, a nie badawczą. Za to dziesiątki innych analityków i badaczy regularnie powtarzają przeciwne zdanie: że w ciągu 10 lat postęp spowolni i nie będzie już zgodny z (nie)prawem Moore'a. Od lat koniec jest stale zapowiadany na „za 10 lat”. Czy w tym roku sceptycy mają rację?
O czym nie mówi (nie)prawo Moore'a
Wokół tej empirycznej zasady narosło mnóstwo mitów, najczęściej stworzonych przez ludzi niemających takiej branżowej wiedzy i takiego doświadczenia, jak Gordon Moore. Zanim wrócimy do prognozowania dalszego postępu, rozprawmy się z kilkoma z nich.
Koszt elektroniki będzie malał. Moore nic o tym nie mówił. Różne skale integracji wiążą się z różnymi kosztami. Na przykład upakowanie 100 mld tranzystorów w jednym kawałku krzemu jest dziś teoretycznie możliwe, ale byłoby nieprawdopodobnie drogie. Podobnie wyprodukowanie wzmacniacza z dziewięcioma tranzystorami w najnowszym procesie technologicznym jest możliwe, ale skrajnie nieopłacalne. Prognoza Moore'a dotyczy złotego środka – tych układów scalonych, w których koszt jednego tranzystora jest najniższy. Ale koszt wytworzenia nie ma wiele wspólnego z ceną. Jeśli scalaki wyprodukowane w starszym procesie technologicznym i przy mniejszej skali integracji da się sprzedawać z większym zyskiem, to producenci będą woleli właśnie tym się zająć. I tak dziś największą marżę można osiągnąć na układach budowanych w najnowszych procesach technologicznych, ale największy zysk – na wielkoskalowej produkcji mniej zaawansowanych, tanich układów.
Wydajność procesorów będzie się podwajać. O tym też nie było mowy. Dziś największymi układami scalonymi rzeczywiście są programowalne, uniwersalne procesory, ale nie zawsze musi tak być. Być może w przyszłości ważniejsze będą heterogeniczne układy złożone z wielu wyspecjalizowanych maszyn obliczeniowych. Ich wydajność w prostych zadaniach może być niewiele wyższa od osiągów dzisiejszych CPU, ale lepiej się nadadzą do skomplikowanych analiz rzeczywistości.
Zapotrzebowanie procesora na energię będzie maleć. To skutek uboczny miniaturyzacji, ale obie tendencje nie muszą być powiązane. Dziś postęp w energooszczędności osiąga się tylko częściowo dzięki lepszej technice produkcji, a w dużej mierze dzięki lepszemu zarządzaniu zasilaniem i taktowaniem. Nasza elektronika większość czasu spędza, czekając na polecenia użytkownika, i nie musi być wtedy wydajna.
Wielowarstwowe układy scalone. Gordon Moore zauważył w 1963 roku (dwa lata przed słynną publikacją), że postęp w produkcji układów scalonych ściśle zależy od postępu w litografii i związanych z nią procesach chemicznych. Wiedział, jakie są ograniczenia w ich wytwarzaniu, dzięki czemu mógł być pewien postępu przez następne 10 lat. Nie wziął jednak pod uwagę nielitograficznych technik produkcji oraz możliwości układania czipów jeden na drugim. Trójwymiarowa integracja układów scalonych może przyspieszyć lub podtrzymać tempo miniaturyzacji, kiedy litografia napotka jakieś bariery nie do pokonania.
Jak może się skończyć (nie)prawo Moore'a?
Przez lata pojawiło się wiele głosów, że ograniczenia fizyczne zatrzymają postęp miniaturyzacji. Takich domniemanych granic wskazywano bardzo wiele. Kiedyś ostatecznym kresem miały być szczegóły wielkości 500 nm, a to ze względu na długość fali światła, którym naświetlano wafle krzemowe, ale wynalezienie lasera UV pozwoliło przekroczyć tę granicę. Potem limitem miały być soczewki używane do naświetlania, ale okazało się, że można naświetlać przez warstwę załamującego światło płynu (patrz: „45 nm – koniec normalnej litografii”). Również problemy z samym krzemem i jego właściwościami udawało się do tej pory pokonać dzięki zastosowaniu nowych materiałów (dwutlenek hafnu, metalowa bramka...) lub nowej struktury tranzystora (FinFET). Obecnie Intel, Samsung i GlobalFoundries produkują układy scalone w procesach technologicznych klasy 14 nm (choć dla Intela „14 nm” oznacza co innego niż dla reszty – poruszyliśmy ten temat w artykule „Intel 14 nm – nowy proces technologiczny, w którym będą powstawać procesory Broadwell”). Intel pracuje nad fabrykacją klasy 10 nm, ale rozważane rozwiązania techniczne, które mają to umożliwić, pozostają tajemnicą.
Dziś sceptycy nie są już tak skłonni do prorokowania rychłego końca z tak błahych powodów. Pozostają jednak wielkie przeszkody, na których pokonanie na razie nie ma dobrego pomysłu:
Ograniczenia fizyczne. Układy scalone są dziś wykonywane głównie z krzemu. Krystaliczny krzem jest domieszkowany atomami innych pierwiastków i łączony z innymi materiałami; prąd płynie głównie przez miedziane przewody i strukturę krystaliczną krzemu. Uważa się, że nie da się tanio zbudować tranzystorów mniejszych niż złożone z kilku atomów krzemu. Potencjalnym rozwiązaniem może być wykorzystanie innych postaci materii niż krystaliczny krzem, na przykład nanorurek węglowych lub krzemowych. Ostateczny limit określają prawa fizyki. Obiekty, z których da się zbudować funkcjonalny komputer, muszą być dostatecznie duże, aby dało się odróżnić ich stan i obecność od losowych fluktuacji czasoprzestrzeni. Podobnie jest z przedziałami czasu, których odmierzanie jest konieczne do taktowania komputera. Badacze obliczają, że 1 kg materii wykorzystany w maksymalnie efektywny sposób może wykonać o 57 rzędów wielkości więcej obliczeń niż obecny 1-kilogramowy laptop (57 rzędów wielkości oznacza mnożenie przez 1 i 57 zer!). Mamy więc jeszcze spory zapas, chociaż odpowiedniej organizacji materii ani problemu wartego przedstawienia takiej maszynie nawet nie możemy sobie wyobrazić.
Ograniczenia ekonomiczne. Trudno o publicznie dostępne wiarygodne dane na ten temat, lecz wielu analityków twierdzi, że już teraz procesy technologiczne poniżej 28 nm po prostu się nie opłacają. Oczywiście, wszystko zależy od tego, jak drogo i w jakiej ilości producent będzie umiał sprzedać swoje wyroby. Wszystko dlatego, że koszt opracowania nowego procesu technologicznego, budowy fabryk i wdrożenia produkcji również rośnie co dwa lata. Intel podaje, że koszt wytworzenia tranzystora stale maleje zgodnie z (nie)prawem Moore'a, ale ta statystyka dotyczy tylko sprawnych układów: nie uwzględnia kiepskiego uzysku ani inwestycji w nowe fabryki. Rynek mikroelektroniki, choć nieustannie rośnie, jest skończony. W końcu koszt wymaganych inwestycji przekroczy sumę dostępnych pieniędzy i trzeba będzie się zatrzymać. Dotyczy to także konsumentów: wspomniany złoty środek, czyli wielkość układu, przy której koszt tranzystora jest najmniejszy, może się przesunąć w kierunku droższych układów. Wtedy mniej konsumentów będzie stać na taki produkt i rynek zbytu się zmniejszy.
Spadek zainteresowania. Raczej nie stracimy zainteresowania urządzeniami elektronicznymi, ale możemy zainteresować się innym ich rodzajem. Rosnący „internet rzeczy” opiera się obecnie nie na 14-nanometrowych procesorach wielkości paznokcia, lecz na malutkich czipach produkowanych w starych, tanich technikach. Jeśli najbardziej pożądanym produktem półprzewodnikowym stanie się urządzenie o małej liczbie zintegrowanych elementów, złoty środek wypadnie dla niego w starszym procesie technologicznym i nie będzie ekonomicznej motywacji do dalszego miniaturyzowania. Wysiłek i zasoby mogą też zostać przekierowane z produkcji sprzętu na produkcję oprogramowania. Dzisiaj mamy już problem z wymyśleniem dobrych zastosowań dla mnożących się elektronicznych gadżetów. Software, zamiast doganiać hardware, zostaje coraz dalej w tyle. Możliwe, że poświęcenie oprogramowaniu i jego zastosowaniom odpowiednio dużo czasu będzie bardziej owocne od usprawniania sprzętu.
Dokąd nas zaprowadzi (nie)prawo Moore'a?
Nie czujemy się na siłach, żeby analizować wpływ elektroniki na życie i społeczeństwa, lecz nie ulega wątpliwości, że zmiany w minionych 50 latach były szokujące. Gordon Moore w 1965 roku nieśmiało wspominał o przenośnych urządzeniach komunikacyjnych i automatycznych samochodach i był jednym z niewielu wizjonerów, którzy pomyśleli o takich rzeczach.
Mikroelektronika wpłynęła nie tylko na branże bezpośrednio związane z produkcją komputerów oraz ich sprzedażą i wykorzystaniem, ale także na prawie wszystkie pozostałe obszary ludzkiej działalności. Komputer jest uniwersalnym narzędziem poprawiającym produktywność w wielu działaniach. Komputery ułatwiają również projektowanie jeszcze lepszych komputerów, co jest cechą najlepszego narzędzia.
Najważniejszą cechą w tej dziedzinie postępu jest jego wykładnicza natura. Liczba komponentów możliwych do zintegrowania w jednym układzie rośnie nie liniowo, jak to wygląda na większości wykresów w skali logarytmicznej, ale wykładniczo.
Innymi słowy, przez ostatnie 10 lat procesory urosły o miliard tranzystorów, jednak wzrost o następny miliard zajmie już tylko 2 lata. Do tego należy doliczyć wykładniczą naturę wzrostu produktywności, o której przed chwilą wspominaliśmy. Zatem nawet jeśli (nie)prawo Moore'a miałoby być aktualne jeszcze tylko przez kilka lat, ten okres może być ważniejszy niż cała historia mikroelektroniki od połowy XX wieku do teraz.