Pozornie nic nowego, ale...
Pierwszy rzut oka na platformę V8, przez Intela nazywaną również „Media Creation PC”, wyjaśnia, że mamy do czynienia z płytą główną Intel S5000XVN, na której zainstalowano dwa procesory Intel Xeon DP X5365, czyli czterordzeniowe układy znane pod kodową nazwą Clovertown, pracujące z zegarem 3 GHz i 1333-megahercową szyną FSB.
Płyta, jak zwykle w przypadku konstrukcji przeznaczonych do serwerów i stacji roboczych, wykonana jest w wymiarze Extended ATX, czyli jest po prostu wielka. Nic dziwnego, musi się na niej zmieścić sporo wyposażenia, nie mówiąc już o dwóch podstawkach pod procesory, z odpowiednią na spory radiator ilością miejsca wokół nich.
Uwaga! Pomimo ogromnego podobieństwa wizualnego i podobnych wymiarów, podstawki na płycie to nie Socket 775! Dopiero po otwarciu widzimy różnice, zresztą dla niewprawnego oka trudno zauważalne.
Podstawka Socket 771 (na zdjęciu po prawej stronie), stosowana do serwerowych procesorów Xeon DP, ma, w odróżnieniu od znanej nam dobrze podstawki Socket 775 (na zdjęciu po lewej), tylko jeden występ pozycjonujący (choć obudowy procesorów Xeon DP mają dwa wycięcia, tak samo jak w procesorach do powszechnego użytku), zlokalizowany nieco inaczej niż w Socket 775. Ale mimo wszystko o pomyłkę nie byłoby trudno.
Wyposażenie nie całkiem standardowe
Testowana przez nas wersja płyty jest przeznaczona do stacji roboczych, stąd 16-liniowe złącze PCI Express dla karty graficznej. Jednak sama płytka drukowana zdradza, że możliwe jest jej wykorzystanie do produkcji innych wersji – od stacji roboczej CrossFire z dwoma 8-liniowymi gniazdami PEG, po serwer średniej klasy.
Te „puste miejsca” przeznaczone są, w przypadku wersji serwerowej, do zamontowania procesora graficznego ATI ES1000 i 32 MB pamięci RAM DDR dla grafiki.
Sześć portów SATA... nie! Wyłącznie w trybie SATA 300 pracują jedynie dwa porty, z czarnymi gniazdkami. Gniazda niebieskie mogą obsługiwać zarówno dyski SATA, jak i przede wszystkim SAS – Serial Attached SCSI.
Obsługę SAS zapewnia dedykowany układ LSI Logic LSISAS1064E – na jego obudowie warto zauważyć logo ARM. I rzeczywiście, układ ma wbudowane jądro ARM, najpopularniejszego procesora świata.
Nie wdając się w dalsze szczegóły, typowe dla konstrukcji klasy serwer/workstation, takie jak np. podwójny gigabitowy Ethernet, zauważmy, że płytę wyposażono również w wyjścia dźwiękowe – no przecież ma to być Media Creation PC, więc dźwięk High Definition Audio jest obowiązkowy...
W sumie w wyposażeniu nic ciekawego, poza SAS. Aha, może jeszcze osiem gniazd do modułów pamięci FB-DIMM – w zestawie testowym zastosowano cztery moduły FB-DIMM o pojemności 1 GB każdy.
Ale o pamięciach FB-DIMM będziemy jeszcze mówić, teraz przejdźmy do niespodzianki, jaką kryje w swojej konstrukcji płyta Intel S5000XVN, a właściwie wykorzystany do jej konstrukcji chipset Intel 5000X o kodowej nazwie Greencreek.
Niespodzianka: dwie szyny FSB
Tak, to nie pomyłka – każdy z procesorów łączy się z chipsetem, a za jego pośrednictwem z pamięcią operacyjną RAM i systemem wejścia/wyjścia, za pośrednictwem własnej, indywidualnej szyny FSB! W konstrukcjach Intela rzecz dotychczas niespotykana.
Hmm... skądś znamy takie rozwiązanie. Czy to przypadkiem nie było coś takiego, co stanowiło sensację kilka lat temu?
Podobieństwo zewnętrzne jest spore, ale nie sposób było go uniknąć. Jednak różnice wewnętrzne są bardzo istotne. Indywidualne szyny – to znaczyłoby, że transmisje danych pomiędzy procesorami, jakie są konieczne w celu zachowania spójności zawartości pamięci cache, byłyby teraz dłuższe, ze względu na wnoszone przez chipset opóźnienie. Owszem, będą dłuższe, ale za to będą się odbywały tylko wtedy, kiedy będą niezbędne. Przeniesienie problemu spójności cache na układ northbridge chipsetu to łakoma rzecz w wieloprocesorowej konfiguracji SMP, zauważmy tylko, że każdy z procesorów Clovertown sam w sobie stanowi dwuprocesorową konfigurację SMP. Jednak w układzie AMD 762 wsparcie protokołu spójności cache przez sam chipset było jedynie śladowe.
Tymczasem w układzie Greencreek zastosowano bardzo skuteczne rozwiązanie, nazywane powszechnie snoop filtering, wykorzystywane dotychczas jedynie w konstrukcji chipsetów do maszyn z większą od czterech liczbą procesorów. Na czym ono polega? Tu musimy w skrócie wyjaśnić protokół utrzymania spójności cache, stosowany przez Intela w procesorach x86. Jest to protokół rozgłoszeniowy (żądanie snoop, czyli podglądania stanów, przesyłane jest do wszystkich procesorów w systemie, wszystkie na nie odpowiadają), z ewentualnym unieważnianiem zapisów w cache. Protokół operuje na czterech możliwych statusach dla każdego wiersza cache: Modified - Exclusive - Shared – Invalid i często nazywany jest protokołem MESI. W przypadku konfiguracji dwuprocesorowej rozgłaszanie i odbiór informacji stanowią stosunkowo nieznaczne obciążenie szyny FSB, a prostota protokołu sprawia, że opóźnienia są relatywnie niewielkie. W czteroprocesorowej konfiguracji SMP sytuacja staje się trudniejsza i obsługa protokołu spójności cache zaczyna angażować znaczącą część pasma przepływności szyny FSB. Nie koniec na tym – transmisje snoop pomiędzy procesorami muszą mieć niższy priorytet od transmisji burst pomiędzy procesorem a pamięcią RAM, co powoduje konieczność oczekiwania „pytającego” procesora przez okres kilkunastu cykli zegara szyny.
Filtracja rozgłaszania, jaką realizuje snoop filter, polega na wyeliminowaniu przesłań pomiędzy procesorami wtedy, kiedy nie są one niezbędne – chipset zawiera więc sporą pamięć skojarzeniową, w której przechowywane są informacje o aktualnym stanie zgodności cache. Dzięki takiemu rozwiązaniu, generowane przez protokół spójności cache obciążenie każdej z szyn FSB jest tylko nieznacznie większe niż w dwuprocesorowej konfiguracji SMP.
Poza podstawowym rozwiązaniem filtracji śledzenia spójności, w układzie Greencreek wbudowano również inne mechanizmy wspomagające obsługę protokołu MESI, jak śledzenie i rejestracja operacji DMA na pamięci RAM oraz wiele innych. Co to daje w praktyce? Według testów Intela snoop filtering przynosi co najmniej pięcioprocentowy wzrost wydajności w aplikacjach wrażliwych na pasmo przepływności pamięci dla konfiguracji zawierającej dwa procesory dwurdzeniowe. W przypadku dwóch procesorów czterordzeniowych zysk ten może nawet przekroczyć dziesięć procent.
FB-DIMM – a cóż to znowu?
Kolejną „niespodzianką”, jaką uraczyła nas platforma Intel Media Creation PC, są zastosowane w niej pamięci FB-DIMM. Wyglądem zewnętrznym nie różnią się od typowych high-endowych modułów DIMM...
...ale pod blaszanymi pokrywkami rozpraszającymi ciepło kryje się makroarchitektura pamięci mocno odmienna od tej, jaką znamy z naszych PC. Na czym polega ta odmienność, skoro w modułach FB-DIMM stosowane są takie same chipy pamięci DDR2, jak te używane w modułach PC2-xx00?
W klasycznej architekturze PC podsystem pamięci ma strukturę szynową, z równoległym przesyłaniem odczytanego czy zapisywanego słowa. Do szyny może być dołączany jeden lub więcej modułów pamięci. Ale z tym „więcej” są problemy – im szybsze taktowanie szyny pamięci, tym mniejsza liczba modułów może w niej pracować. W praktyce w przypadku DDR2 800 w szynie może pracować tylko jeden moduł. Koncepcja FB-DIMM rozwiązuje ten problem...
...zastępując strukturę szynową szeregowym połączeniem łańcuchowym, w którym transmisje przebiegają „punkt-punkt”. Równocześnie zmniejsza się znacznie liczba linii transmisyjnych, co umożliwia stosowanie wyższych prędkości przesyłania danych. Rozwiązanie przypomina dość mocno interfejs stosowany w lansowanych w swoim czasie przez Intela pamięciach RDRAM (Rambus DRAM), różni się jednak od niego istotnym szczegółem – nie wymaga stosowania układów pamięci o odmiennej budowie, pozwalając na wykorzystanie powszechnie stosowanych układów DDR2, a w przyszłości również i DDR3. Tę niezależność uzyskano przez zastosowanie w każdym module układu AMB – Advanced Memory Buffer.
Jego zadaniem jest z jednej strony sterowanie przepływem rozkazów i danych do zapisu, przetwarzanie ich na postać równoległą i przekazywanie do układów pamięci DRAM, z drugiej strony – przetwarzanie odczytanych z DRAM danych na postać szeregową, łączenie ich z danymi płynącymi z innych modułów i przesyłanie do kontrolera pamięci. Nietrudno zauważyć, że taka konstrukcja umożliwia jednoczesny odczyt i zapis danych, co w strukturze szynowej byłoby niemożliwe. Oczywiście warunkiem równoczesności odczytów i zapisów jest, by były dokonywane z/do różnych modułów, a z tego z kolei wynika, że im wiecej modułów w kanale pamięci, tym większa może być, dzięki zastosowaniu stronicowania i przeplotu, całkowita szybkość transmisji w kanale. Odwrotnie, niż w przypadku szyny...
Na zdjęciu przedstawione są wczesne moduły FB-DIMM, z czasów przed ustaleniem ich ostatecznego standardu, stąd dwa wycięcia pilotujące, z których na obecnych modułach FB-DIMM znajdziemy tylko jedno. Natomiast reszta konstrukcji wygląda tak samo – w centralnej części modułu zainstalowany jest układ AMB.
W praktyce trudno go dostrzec pod „oblachowaniem”, jeśli jednak przyjrzymy się z bliska, widać go wyraźnie „z profilu” pod płytką modułu.
Poważną wadą obecnej implementacji układu AMB jest dość duży, kilkuwatowy pobór mocy, który pociąga za sobą konieczność stosowania płytek rozpraszających ciepło. Nietrudno zauważyć, że konsekwencją takiego rozwiązania jest wyższa temperatura pracy samych układów pamięci. Ale moduły FB-DIMM przeznaczone są do pracy w serwerach i stacjach roboczych, w których chłodzenie jest zazwyczaj bardzo skuteczne.
Pierwsze wrażenia
Uzbrojeni w całą wiedzę na temat „inności” platformy V8 w stosunku do „reszty świata PC”, możemy teraz spokojnie przystąpić do testów... nie, najpierw trzeba zmontować i uruchomić platformę. Procesory są już w podstawkach, pozostaje tylko założenie radiatorów.
Coolery przeznaczone do stosowania w serwerach 4U, jakie Intel standardowo dołącza do procesorów Clovertown, nie są szczególnie wielkie, za to dość ciężkie – w całości wykonane z miedzi. Pewne zaniepokojenie budzą wśród nas zainstalowane na nich wentylatory – wyglądają na takie, które mogą być dość głośne.
Zwraca uwagę sposób, w jaki nałożono na dolną powierzchnie radiatorów tworzywo termoprzewodzące – jak się później przekonamy przy demontażu platformy, zapewnia on bardzo dobre rozłożenie pasty na powierzchniach procesora i radiatora. To dość ważne, bowiem moc TDP 3-gigahercowych procesorów Clovertown wynosi aż 145 W.
Sam system mocowania radiatorów wywołał wrażenie nadmiaru elementów – nie dość, że metalowe ramki, to jeszcze solidna płytka usztywniająca. Jednak nie ma tu żadnego nadmiaru – jak już wspomnieliśmy, miedziane radiatory są ciężkie, a w dodatku skoncentrowane na płycie praktycznie obok siebie, więc usztywnienia są jak najbardziej konieczne.
Dołączamy do płyty zasilanie, z 850-watowego zasilacza Cooler Master Real Power Pro 850W – płyta wymaga dołączenia zarówno ośmio- jak i czteropinowego kabla ATX 12V. Jeszcze tylko karta graficzna – w naszych testach wykorzystamy GeForce 8800 GTS 320 MB – i już możemy włączać platformę. Instrukcja producenta ostrzega, że proces inicjalizacji płyty trwa długo i... rzeczywiście, pierwsze „objawy życia” pojawiają się na ekranie dopiero po przeszło 40 sekundach od włączenia zasilania. Ale przewidziano również coś dla niecierpliwych – na tylnej krawędzi płyty znajduje się zespół sześciu diagnostycznych diod LED, których kolory i sekwencje świecenia informują o kolejnych fazach inicjalizacji płyty i testu POST.
BIOS - na pewno brak "OC"!
Powitalny ekran BIOS-u nie zawiera zbyt wielu informacji, ale też nie do tego jest przeznaczony – raczej ma „osłodzić życie” użytkownikowi, który z tytułowej „Intel Server Board” korzysta w stacji roboczej.
Aptio Setup Utility? A to co znowu? Aptio to nazwa, jaką AMI obdarowało swoje firmware przystosowane do Intel Platform Innovation Framework dla EFI (Extensible Firmware Interface). Czym jest z kolei EFI?
Upraszczając zagadnienie do granicy bólu, EFI jest opracowanym przez Intela standardem konstrukcji firmware, pełniącego rolę klasycznego BIOS-u. O jego ogromnej przewadze nad „normalnym” BIOS-em przekonamy się niedługo, tymczasem wróćmy do tego, co kryje Aptio Setup.
Processor Configuration – szczerze mówiąc, nie liczyliśmy na nic innego niż widzimy, tu żadnego podkręcania nie ma i nie będzie! To jest profesjonalny sprzęt, a nie maszyna do bicia rekordów w Super Pi.
Gdybyśmy przypadkiem nie wiedzieli, ile, gdzie i jakich modułów pamięci włożyliśmy, komplet informacji zawarty jest w tej zakładce. „Podkręcić” czegokolwiek też się nie da!
Oprócz znanych nam z typowych BIOS-ów opcji Legacy USB Support i włączania-wyłączania USB 2.0, mamy dwie dodatkowe – możliwość emulacji niektórych portów I/O oraz USB Mass Storage Device Configuration - możliwość predefiniowania dołączonych przez USB urządzeń pamięci masowej tak, by do korzystania z nich nie było konieczne użycie dodatkowych sterowników. Warto przy tym pamiętać, że na płycie nie ma kontrolera FDD i jedynie właściwa konfiguracja USB pozwoli nam na instalację tych systemów operacyjnych, których instalatory kategorycznie domagają się dyskietki i nie akceptują niczego innego.
Niespodzianki instalacji
Jeszcze przed rozpoczęciem instalacji systemu operacyjnego, przez przypadek uruchomiliśmy bootowanie Windows XP ze znajdującej się na testowym dysku partycji pozostałej po testach zupełnie innej płyty głównej – low-endowej płyty z chipsetem Intel G33. Jakież było nasze zdziwienie i zaskoczenie, gdy system nie tylko poprawnie się załadował, ale nawet pracował równie stabilnie, jak przy nowej, „czystej” instalacji.
Po zastanowieniu, a także przejrzeniu zawartości płytki z oprogramowaniem, dołączonej do naszego Media Creation PC, poznaliśmy sekret tego poprawnego działania – jest nim wspomniany wcześniej EFI framework. Dzięki niemu podstawowe układy płyty nie wymagają żadnych sterowników ani nawet plików konfiguracyjnych .INF – wszystkiego, co jest potrzebne, dostarcza EFI. Zapisaliśmy się więc natychmiast do grona miłośników tej koncepcji i przystąpiliśmy do instalacji. W celach doświadczalnych dołączyliśmy do odpowiednio skonfigurowanego portu USB zewnętrzny napęd DVD i z niego zainstalowaliśmy bez najmniejszych problemów 64-bitową wersję Windows Vista. Gorzej było natomiast z Windows XP – instalator po kilku minutach pracy konsekwentnie częstował nas „blue screenem” tego samego błędu. No cóż, zapewne nie jest zgodny z EFI – licząc sobie już ładne kilka lat ma do tego prawo. W każdym razie Windows XP trzeba było w rezultacie instalować z konwencjonalnego napędu dołączonego przez ATA.
Początek testów
Rzeczywiście jest osiem jąder! CPU-Z bezbłędnie identyfikuje dwa czterordzeniowe układy Clovertown...
... a aktywność wszystkich ośmiu rdzeni potwierdza także Menedżer zadań. Warto byłoby się przekonać naocznie, jak wygląda osiem rdzeni w akcji.
Cinebench pokazuje nam wyraźnie wszystkie osiem rdzeni zaangażowanych w rendering testowej sceny, a przy okazji uzyskuje bardzo imponujący wynik. I w ten sposób wykonaliśmy pierwszy test ośmiordzeniowej platformy....
Jak sobie radzi system Windows XP z przydzielaniem zadań dla ośmiu rdzeni obliczeniowych?
Jak widać, wątki programu WinRAR rozdzielane są według regularnego algorytmu, zgodnego z konstrukcją programu. A wyniki?
No cóż, wydajność WinRAR-a, pomimo eleganckiego rozkładu zadań na poszczególne rdzenie, nie rośnie jakoś szczególnie lawinowo przy wzroście ich liczby, widzieliśmy zresztą, że sumaryczne wykorzystanie procesorów nie przekroczyło 75%.
Co do 3ds max nie mamy wątpliwości, że ten program potrafi skutecznie zagospodarować osiem rdzeni platformy V8. Z jakim skutkiem?
Efekt jest piorunujący – ponad dwukrotna przewaga Intel V8 nad AMD 4x4! No ale to jest przecież Intel Media Creation PC, więc w tego typu zadaniach musi się sprawdzać bez zarzutu.
A jak to będzie wyglądało w przypadku wykonywania równolegle większej liczby zadań? Czy da się np. pograć w ulubioną grę, podczas gdy w tle będą wykonywane inne prace? Jako reprezentatywną grę wybraliśmy Quake 4 – wiele testów wykazało, że jej osiągi zależne są od parametrów procesora, pamięci i innych właściwości maszyny, nie tylko od karty graficznej.
Okazuje się, że pracujący w tle Orthos nie robi na Quake’u żadnego wrażenia, jeśli jednak do Orthosa dołączy WinRAR, da się zauważyć spadek szybkości w grze.
Popatrzmy jednak, w jaki sposób Orthos i WinRAR angażują procesor i porównajmy to z potrzebami Quake'a.
Jak widać, engine Quake’a musi nieźle lawirować, by utrzymać choć taką szybkość wyświetlania, skoro zostaje dla niego zaledwie 26 procent mocy!
I cóż z tym dalej zrobimy?
Pierwsze testy pokazały właściwie to, czego można się było i bez nich spodziewać - ogromny skok wydajności w tych aplikacjach, które potrafią w pełni wykorzystać wielordzeniową platformę, nieco mniejszy w tych również wielowątkowych, ale z różnych przyczyn nie wykorzystujących pełnej mocy (jak WinRAR) i żaden w aplikacjach jednowątkowych. Okazało się również, że nawet osiem rdzeni nie zapewni nam niespowolnienia gry, gdy w tle będą pracowały programy wielowątkowe.
Chcielibyśmy zaprosić Was do współtworzenia tego artykułu. Jeśli macie propozycje ciekawych testów, wnoszących nowe elementy do tego, co już wiemy o V8, prosimy o podawanie ich na forum, w komentarzach do tego tekstu. Interesujące testy zrealizujemy i oczywiście opublikujemy ich wyniki!
Testy Czytelników
Zupełnie nie rozumiem, w jaki sposób udało mi się przeoczyć taki test jak 3DMark06. Na szczęście Soker zwrócił uwagę na brak tego testu - już nadrabiamy. Naprawienie błędu nie było bardzo trudne, bo test był zrobiony i... zapomniany.
Nie trzeba było się wiele zastanawiać, by zgadnąć, że V8 "wymiecie" i tutaj, natomiast bardzo zaskakująca jest uzyskana skala przewagi nie tylko nad AMD 4x4, ale także nad czterordzeniowym QX6800. Czyżby 3DMark06 był aż tak wielowątkowy?
Pominęliśmy zupełnie wyniki testów w 64-bitowym środowisku Windows Vista. Świadomie, głównie ze względu na niedoskonałość sterowników dla tego systemu. Jednak Czytelnicy życzą sobie 64-bitowej rywalizacji. Oto i ona, przynajmniej na tyle, na ile jestem w stanie to zrobić "na szybko".
Zarówno 3DMark06, jak i 64-bitowy Cinebench niczego nie zmieniają w dotychczas prezentowanej rywalizacji, pewną niespodziankę przynosi natomiast WinRAR.
Platforma AMD 4x4 wciąż pozostaje liderem tego benchmarku, nawet w konkurencji ośmiordzeniowej platformy Intel V8! Czy o pokazanie tego chodziło?
Bliski krewniak ze sklepu
Wielu Czytelników traktuje pokazaną przez nas platformę Intel V8 jako dziwactwo marketingowe, pisząc o serwerowej płycie zaadaptowanej do użytku w stacji roboczej. Jednak chyba jest odwrotnie - jest to płyta workstation, z możliwością wykorzystania jako serwerowa. Skąd taka teoria? Ano stąd, że w każdym kramiku handlującym komputerami Apple można kupić, jeśli nie od ręki to na zamówienie, maszynę Mac Pro. Oto jej schemacik.
Czyż nie jest podobna do Intel Media Creation PC? Jedyne różnice to FireWire i zmodyfikowany z orientacją na S/PDIF podsystem dźwiękowy - jednym słowem egzotyk, który można kupić w każdym odpowiednim sklepie.
Testów ciąg dalszy
Programy szachowe są jednym z typów zadań, w których wydajności nigdy dość. Popatrzmy, jak sprawdzi się platforma V8 w benchmarku wykorzystującym silnik popularnego programu szachowego Fritz.
Trzynaście milionów przekalkulowanych pozycji i wydajność 27 razy wieksza od gigahercowego Pentium III. To dużo, czy mało?
Dopiero porównanie z innymi platformami pokazuje, jak ogromne zdolności wykaże V8 podczas gry w szachy.
Warto zauważyć, że szybkość działania benchmarku skaluje się bardzo dobrze przy wzroście liczby wykorzystywanych rdzeni. Praktycznie do czterech rdzeni wzrost jest prawie liniowy, dopiero powyżej tej liczby uzyskiwane przyrosty nieco maleją.
Na naszym forum padają głosy domagające się testów Super Pi. Jednak nie będziemy ich robić, a wyjaśnieniem niech będzie zrzut z Menedżera, pokazujący sposób wykorzystania wieloprocesorowej maszyny przez ten program.
Zamiast testów Super Pi wykonaliśmy natomiast pomiary poboru mocy przez platformę testową przy różnych zadaniach.
Maksymalny pobór mocy, jaki nam sie udało uzyskać to blisko 400 W. Zwróćmy uwagę, że mierzony pobór to zasilanie płyty z pamięcią, procesorami i wentylatorami, karty graficznej Radeon X1300 i dysku 7200 rpm.
Ponury sekret FB-DIMM
Opisaliśmy juz wcześniej architekturę pamięci FB-DIMM, wraz z wynikającymi z niej potencjalnymi zaletami. Popatrzmy, jak ten potencjał jest wykorzystywany w rzeczywistości.
Transmisja z szybkością 4,34 GB/s (odczyt) i opóźnienie liczące 223 cykle zegara procesora to, jak na nową klasę superpamięci, dość mizerny rezultat! Porównajmy go zresztą z osiągami klasycznych, niebuforowanych pamięci DIMM DDR-2.
Pamięci PC2-2700, czyli DDR333, zapewniają szybkość odczytu 5,2 GB/s, z opóźnieniem zaledwie 140 cykli zegara, zaś...
... w przypadku DDR2-1066, uzyskiwana jest szybkość odczytu 5,27 GB/s, przy opóźnieniu zaledwie 130 cykli zegara. Dlaczego jest tak źle, skoro miało być tak dobrze? Wspominaliśmy już o podobieństwie idei konstrukcyjnej FB-DIMM do architektury pamięci Rambus. Pamięci Rambus nie przyjęly się, ponieważ zostały wprowadzone na rynek dużo wcześniej, nim osiągnęły dojrzałość konstrukcyjną. Czyżbyśmy i w przypadku FB-DIMM mieli do czynienia z podobną sytuacją?